KI-Energiehunger: Wie ChatGPT und Co. unsere Stromnetze belasten

von | 08.05.2023 | Internet

Künstliche Intelligenz boomt wie nie zuvor – doch der Preis ist hoch. KI-Systeme verschlingen gigantische Mengen an Strom. Wie hungrig sind ChatGPT, Claude und Co. wirklich, und was bedeutet das für unsere Klimaziele?

KI ist überall: ChatGPT schreibt E-Mails, Midjourney erstellt Kunstwerke, und bald steckt KI in jeder Office-Anwendung. Was dabei oft übersehen wird: Der enorme Energiehunger dieser Technologien. Während wir fasziniert zusehen, wie KI-Systeme in Sekunden komplexe Aufgaben lösen, laufen im Hintergrund Tausende Server auf Hochtouren.

KI-Systeme brauchen Regeln - und müssen im Zweifel auch kontrolliert werden

KI-Systeme brauchen Regeln – und müssen im Zweifel auch kontrolliert werden

ChatGPT und Co: Der versteckte Energiehunger

Wenn ihr ChatGPT eine Frage stellt, erscheint binnen Sekunden eine Antwort. Kaum jemand denkt dabei an den Stromverbrauch. Tatsächlich ist eine einzelne Anfrage relativ sparsam – die eigentliche Energieschlacht wurde bereits geschlagen: beim Training.

KI-Systeme müssen lernen, bevor sie antworten können. Das Training von GPT-3 verschlang 1,287 Gigawattstunden – so viel wie 120 US-Haushalte in einem ganzen Jahr verbrauchen. GPT-4 war noch hungriger, und die neuesten Modelle wie GPT-4o, Claude 3.5 Sonnet oder Googles Gemini Ultra übersteigen diese Werte um ein Vielfaches.

Dazu kommt: Bevor ein KI-Modell veröffentlicht wird, entstehen Hunderte Testversionen. OpenAI trainierte für GPT-4 schätzungsweise über 100 verschiedene Modellvarianten. Der tatsächliche Energieverbrauch liegt also weit höher als die offiziellen Zahlen.

Experten sagen Google Bard eine große Zukunft voraus

Experten sagen Google Bard eine große Zukunft voraus

Der Trainingszyklus: Immer wieder von vorn

Einmal trainiert, fertig? Leider nein. KI-Modelle veralten schnell. ChatGPT-4 hatte ursprünglich einen Wissensstichtag von April 2023 – längst überholt. Moderne Modelle wie Claude 3.5 oder Gemini werden kontinuierlich aktualisiert, was regelmäßige Neutrainings erfordert.

Zudem entwickeln sich die Anforderungen rasant: Multimodale KI (Text, Bild, Audio), längere Kontextfenster, bessere Reasoning-Fähigkeiten – jede Verbesserung kostet Energie. Meta trainiert derzeit Llama 3 mit über 400 Milliarden Parametern, OpenAI arbeitet an GPT-5, und Google pusht Gemini Ultra. Der Energiehunger steigt exponentiell.

Tech-Giganten: KI frisst das Budget

Bei Google verbrauchte KI 2023 bereits 15% des gesamten Strombedarfs – etwa 3,2 Terawattstunden. Microsoft gab 2025 bekannt, dass KI-Training mittlerweile 25% ihres Energiebudgets ausmacht. Meta investierte 2025 über 40 Milliarden Dollar in KI-Infrastruktur – der Löwenanteil floss in Rechenzentren und Stromversorgung.

Die Zahlen explodieren regelrecht: Nvidia lieferte 2025 KI-Chips im Wert von 126 Milliarden Dollar – jeder Chip ein Stromfresser. Ein einzelner H100-Chip verbraucht bis zu 700 Watt. In modernen KI-Clustern arbeiten Zehntausende solcher Chips parallel.

Mein Buch der Digitalschock: Alles, was Ihr über ChatGPT wissen müsst

Inference: Nutzung wird zum Problem

Früher galt: Training frisst Strom, Nutzung ist sparsam. Das ändert sich drastisch. ChatGPT beantwortet täglich über 100 Millionen Anfragen. Claude, Copilot, Gemini – die Nutzerzahlen explodieren. Eine ChatGPT-Anfrage verbraucht etwa 2,9 Wattstunden, eine Google-Suche nur 0,3. Bei der schieren Masse wird auch die Nutzung zum Energieproblem.

Dazu kommen neue KI-Funktionen: Copilot in Office, KI-Assistenten in Smartphones, autonome Fahrzeuge. Jede Anwendung bedeutet permanent laufende KI-Systeme. Apple Intelligence, Googles „AI everywhere“-Strategie, Microsofts Copilot+ PCs – KI wird zur Dauerlast.

Neue Hoffnung: Effizientere Architekturen

Die Industrie reagiert. Neue Chip-Architekturen versprechen deutliche Effizienzgewinne: Nvidias H200 ist 18% sparsamer als der H100, AMDs MI300X konkurriert mit 80% weniger Energieverbrauch bei gleicher Leistung. Apples M4-Chips zeigen, dass auch lokale KI-Verarbeitung möglich ist.

Quantized Models und Pruning-Techniken reduzieren Modellgrößen ohne Leistungsverlust. Metas Llama 2 70B läuft mittlerweile auf einem MacBook Pro. Google entwickelt sparsame „Nano“-Versionen ihrer Modelle für Smartphones.

Grüner Strom: Der Schlüssel zur Lösung

Microsoft, Google und Amazon investieren massiv in erneuerbare Energien. Microsoft will bis 2030 kohlenstoffnegativ werden – trotz KI-Boom. Google kaufte 2025 Solarstrom für 12 Gigawatt, genug für mehrere Millionen Haushalte.

Meta baut eigene Windparks, OpenAI kooperiert mit Solarfirmen. Dennoch: Der Strombedarf wächst schneller als die grüne Erzeugung. Experten schätzen, dass KI bis 2030 etwa 3-5% des weltweiten Stromverbrauchs ausmachen könnte.

Die Transparenz-Lücke

Trotz aller Fortschritte herrscht Intransparenz. OpenAI veröffentlicht keine Energieverbrauchszahlen für GPT-4. Anthropic schweigt zu Claudes Strombedarf. Nur wenige Unternehmen legen ihre KI-Klimabilanz offen.

Dabei wäre Transparenz der erste Schritt zu bewussterem Umgang. Wie bei Autos der Spritverbrauch sollte bei KI-Tools der Energiebedarf ausgewiesen werden. Erste Ansätze gibt es: Hugging Face zeigt CO2-Footprints von Modellen, Code Carbon misst den Energieverbrauch beim Training.

Die KI-Revolution ist nicht aufzuhalten – aber sie muss nachhaltiger werden. Effizienzsteigerungen, grüner Strom und bewusstere Nutzung können helfen. Sonst wird aus dem KI-Traum schnell ein Klimalptraum.

Zuletzt aktualisiert am 18.02.2026