Künstliche Intelligenz boomt wie nie zuvor – doch der Preis ist hoch. KI-Systeme verschlingen gigantische Mengen an Strom. Wie hungrig sind ChatGPT, Claude und Co. wirklich, und was bedeutet das für unsere Klimaziele?
KI ist überall: ChatGPT schreibt E-Mails, Midjourney erstellt Kunstwerke, und bald steckt KI in jeder Office-Anwendung. Was dabei oft übersehen wird: Der enorme Energiehunger dieser Technologien. Während wir fasziniert zusehen, wie KI-Systeme in Sekunden komplexe Aufgaben lösen, laufen im Hintergrund Tausende Server auf Hochtouren.
KI-Systeme brauchen Regeln – und müssen im Zweifel auch kontrolliert werden
ChatGPT und Co: Der versteckte Energiehunger
Wenn ihr ChatGPT eine Frage stellt, erscheint binnen Sekunden eine Antwort. Kaum jemand denkt dabei an den Stromverbrauch. Tatsächlich ist eine einzelne Anfrage relativ sparsam – die eigentliche Energieschlacht wurde bereits geschlagen: beim Training.
KI-Systeme müssen lernen, bevor sie antworten können. Das Training von GPT-3 verschlang 1,287 Gigawattstunden – so viel wie 120 US-Haushalte in einem ganzen Jahr verbrauchen. GPT-4 war noch hungriger, und die neuesten Modelle wie GPT-4o, Claude 3.5 Sonnet oder Googles Gemini Ultra übersteigen diese Werte um ein Vielfaches.
Dazu kommt: Bevor ein KI-Modell veröffentlicht wird, entstehen Hunderte Testversionen. OpenAI trainierte für GPT-4 schätzungsweise über 100 verschiedene Modellvarianten. Der tatsächliche Energieverbrauch liegt also weit höher als die offiziellen Zahlen.

Experten sagen Google Bard eine große Zukunft voraus
Der Trainingszyklus: Immer wieder von vorn
Einmal trainiert, fertig? Leider nein. KI-Modelle veralten schnell. ChatGPT-4 hatte ursprünglich einen Wissensstichtag von April 2023 – längst überholt. Moderne Modelle wie Claude 3.5 oder Gemini werden kontinuierlich aktualisiert, was regelmäßige Neutrainings erfordert.
Zudem entwickeln sich die Anforderungen rasant: Multimodale KI (Text, Bild, Audio), längere Kontextfenster, bessere Reasoning-Fähigkeiten – jede Verbesserung kostet Energie. Meta trainiert derzeit Llama 3 mit über 400 Milliarden Parametern, OpenAI arbeitet an GPT-5, und Google pusht Gemini Ultra. Der Energiehunger steigt exponentiell.
Tech-Giganten: KI frisst das Budget
Bei Google verbrauchte KI 2023 bereits 15% des gesamten Strombedarfs – etwa 3,2 Terawattstunden. Microsoft gab 2025 bekannt, dass KI-Training mittlerweile 25% ihres Energiebudgets ausmacht. Meta investierte 2025 über 40 Milliarden Dollar in KI-Infrastruktur – der Löwenanteil floss in Rechenzentren und Stromversorgung.
Die Zahlen explodieren regelrecht: Nvidia lieferte 2025 KI-Chips im Wert von 126 Milliarden Dollar – jeder Chip ein Stromfresser. Ein einzelner H100-Chip verbraucht bis zu 700 Watt. In modernen KI-Clustern arbeiten Zehntausende solcher Chips parallel.
Inference: Nutzung wird zum Problem
Früher galt: Training frisst Strom, Nutzung ist sparsam. Das ändert sich drastisch. ChatGPT beantwortet täglich über 100 Millionen Anfragen. Claude, Copilot, Gemini – die Nutzerzahlen explodieren. Eine ChatGPT-Anfrage verbraucht etwa 2,9 Wattstunden, eine Google-Suche nur 0,3. Bei der schieren Masse wird auch die Nutzung zum Energieproblem.
Dazu kommen neue KI-Funktionen: Copilot in Office, KI-Assistenten in Smartphones, autonome Fahrzeuge. Jede Anwendung bedeutet permanent laufende KI-Systeme. Apple Intelligence, Googles „AI everywhere“-Strategie, Microsofts Copilot+ PCs – KI wird zur Dauerlast.
Neue Hoffnung: Effizientere Architekturen
Die Industrie reagiert. Neue Chip-Architekturen versprechen deutliche Effizienzgewinne: Nvidias H200 ist 18% sparsamer als der H100, AMDs MI300X konkurriert mit 80% weniger Energieverbrauch bei gleicher Leistung. Apples M4-Chips zeigen, dass auch lokale KI-Verarbeitung möglich ist.
Quantized Models und Pruning-Techniken reduzieren Modellgrößen ohne Leistungsverlust. Metas Llama 2 70B läuft mittlerweile auf einem MacBook Pro. Google entwickelt sparsame „Nano“-Versionen ihrer Modelle für Smartphones.
Grüner Strom: Der Schlüssel zur Lösung
Microsoft, Google und Amazon investieren massiv in erneuerbare Energien. Microsoft will bis 2030 kohlenstoffnegativ werden – trotz KI-Boom. Google kaufte 2025 Solarstrom für 12 Gigawatt, genug für mehrere Millionen Haushalte.
Meta baut eigene Windparks, OpenAI kooperiert mit Solarfirmen. Dennoch: Der Strombedarf wächst schneller als die grüne Erzeugung. Experten schätzen, dass KI bis 2030 etwa 3-5% des weltweiten Stromverbrauchs ausmachen könnte.
Die Transparenz-Lücke
Trotz aller Fortschritte herrscht Intransparenz. OpenAI veröffentlicht keine Energieverbrauchszahlen für GPT-4. Anthropic schweigt zu Claudes Strombedarf. Nur wenige Unternehmen legen ihre KI-Klimabilanz offen.
Dabei wäre Transparenz der erste Schritt zu bewussterem Umgang. Wie bei Autos der Spritverbrauch sollte bei KI-Tools der Energiebedarf ausgewiesen werden. Erste Ansätze gibt es: Hugging Face zeigt CO2-Footprints von Modellen, Code Carbon misst den Energieverbrauch beim Training.
Die KI-Revolution ist nicht aufzuhalten – aber sie muss nachhaltiger werden. Effizienzsteigerungen, grüner Strom und bewusstere Nutzung können helfen. Sonst wird aus dem KI-Traum schnell ein Klimalptraum.
Zuletzt aktualisiert am 18.02.2026