Künstliche Intelligenz: KI verbraucht enorme Mengen an Energie

von | 08.05.2023 | Internet

Künstliche Intelligenz (KI) bietet erstaunliche Möglichkeiten. Allerdings sind KI-Systeme sehr energiehungrig: Sie brauchen eine Menge Strom. Aber wie viel genau – und wie wird sich das entwickeln?

Künstliche Intelligenz (KI) ist derzeit das Thema schlechthin. Alle reden über ChatGPT, Bildgeneratoren wie Midjourney und wohin das mit der KI alles führen kann und soll…. Viele von uns sind fasziniert von ChatGPT und bild-generierende KI-Systemen und erwarten gespannt die Integration in Office-Anwendungen. Uns allen ist klar, da steckt einiges an Software und auch an Rechenpower dahinter – wie viel Aufwand tatsächlich notwendig ist, um die KI-Systeme bereitzustellen. Da haben die meisten von uns ein großes Fragezeichen. Wie groß ist der Stromverbrauch und damit CO2 Abdruck dieser Systeme?

KI-Systeme brauchen Regeln - und müssen im Zweifel auch kontrolliert werden

KI-Systeme brauchen Regeln – und müssen im Zweifel auch kontrolliert werden

ChatGPT: 1.2787 Gigawattstunden

Wenn ich bei ChatGPT eine Anfrage eingebe, erscheint schon wenige Sekunden später eine Antwort. Da denken die meisten: Das kann doch eigentlich nicht so viel Energie kosten…

Wie viel eine einzelne Anfrage erfordert, lässt sich nicht sagen. Was man aber weiß: KI verbraucht deutlich mehr Energie als andere Arten von Computerprogrammen. Es ist aber auch ein ganz anderes Konzept: Wenn ich ChatGPT eine Frage stelle, ist der Stromverbrauch gar nicht besonders hoch – die ganze Arbeit wurde vorher gemacht. KI-Systeme müssen trainiert werden. Dazu bekommen KI-Systeme immer wieder das „gezeigt“, was sie lernen sollen. Das können Texte sein, aber auch Fotos, Gesichter, Skizzen, Verkehrssituationen, Werkstücke etc.

Sie lernen ja. Das dauert mehrere Wochen bis Monate. Das Training von GPT-3, dem bekannten Chatbot, hat laut einem 2021 veröffentlichten Forschungspapier 1,287 Gigawattstunden verbraucht – das entspricht in etwa dem Stromverbrauch von 120 US-Haushalten in einem Jahr. Hinzu kommt aber: Bevor ein KI-Modell veröffentlicht oder genutzt wird, werden Hunderte, wenn nicht Tausende versorgen. Entsprechend potenziert sich der Energiebedarf.

Umgerechnet sind wohl 502 Tonnen Kohlenstoffemissionen entstanden,. Klingt erst mal nicht so viel – aber ist der Stromverbrauch nur eines KI-Modells. – und es entstehen immer mehr KI-Systeme. Google, Elon Musk, China und auch Europa – es gibt derzeit einen Wettlauf verschiedenster KI Systeme. Und das Training dieser KIs ist harte Arbeit: Bei OpenAI arbeiten Tausende(!) von Servern mit zehntausende von GPUs – also extrem schnell rechnenden Grafikprozessoren, die besonders gut und schnell rechnen können –, um das KI-System zu trainieren. Das erfordert wahnsinnig viel Strom.

Experten sagen Google Bard eine große Zukunft voraus

Experten sagen Google Bard eine große Zukunft voraus

Immer wieder neue Trainings erforderlich

Okay: ChatGPT ist nur ein KI-Modell. Aber man könnte ja sagen: Gut, es ist einmal trainiert, so viel Strom wie 120 Haushalte. Damit kann man leben, wenn dann Hunderttausende Menschen in aller Welt damit arbeiten… und praktisch nichts mehr anfällt.

Das Problem bei KI ist aber: Wenn sie einmal trainiert sind, beschränkt sich ihr Wissen auf das, was sie gelernt haben. Wenn man ein KI-System aktuell halten will, muss es immer wieder nachtrainiert werden – oder besser: neu trainiert, denn nachtrainieren ist nur begrenzt möglich. Heißt auch, es bleibt bei Leibe nicht bei diesem einmaligen Stromverbrauch für Training, sondern immer und immer wieder und im Zweifel sogar immer mehr Strom, wenn das Training noch umfangreicher wird.

Und das ist immer so, unabhängig davon, ob es sich um einen Chatbot oder ein anderes KI-System handelt.

15% des Strombedarf bei Google für KI

Wir als Verbraucher sehen gar nicht, wie viele KI-Systeme bereits am Start sind. Der Branchenriese Google zum Beispiel investiert auch schon lange mächtig in KI, ohne groß darüber zu reden. Bei Google verbraucht die KI laut internen Berichten bereits 15 Prozent des gesamten Stromverbrauchs des Unternehmens. Das entspricht für das Jahr 2021 bereits einem Verbrauch von circa 2,3 Terawattstunden.

So wie der jährliche Stromverbrauch aller Haushalte einer Stadt von der Größe Atlantas. Tendenz: steigend, weil ja jetzt alle auf KI setzen. Man darf sich KI nicht als einen superschlauen Rechner vorstellen, der alles weiß und Fragen beantwortet. Das Training von KI läuft über komplexe Cloud-Anwendungen, die über viele Rechenzentren verteilt sind.

Mein Buch der Digitalschock: Alles, was Ihr über ChatGPT wissen müsst

KI-Nutzung vergleichsweise effizient

KI verbraucht beim Lernen/Training viel Energie – nicht so sehr die Nutzung der KI-Systeme.

Das ist nicht anders als bei uns Menschen: Wir müssen 13 Jahre zur Schule gehen, um uns all unser Wissen vor einer möglichen Uni draufzuschaffen. Wir frühstücken jeden Morgen, fahren zur Schule und zurück, essen zu Mittag… Unser Gehirn wird auch mit einer Menge Energie versorgt in der Lernperiode. Wenn wir dann mal eine Dreisatz-Aufgabe lösen oder im Hirn nachkramen, was ein Fremdwort wie „Laktaseintoleranz“ bedeutet, geht das blitzschnell – und kostet in dem Moment nur sehr wenig Energie.

Ganz ähnlich ist es bei KI-Systemen. Einmal trainiert, lassen sich die Trainingsdaten auf deutlich kleineren Systemen einsetzen, teilweise sogar auf PCs. Die einzelne Nutzung verbraucht nicht viel Energie. Natürlich macht es auch hier die Masse: Wenn Millionen Menschen am Tag zu ChatGPT gehen und Fragen oder Aufgaben stellen, dann braucht man dafür natürlich auch Rechenzentren – wie bei jeder anderen Cloud-Anwendung. Aber die eigentliche Arbeit wurde vorher gemacht. Aber ChatGPT zum Beispiel hat allein im Februar 1 Mrd. Anfragen beantwortet. Problem ist aber eben – Chatti und Co müssen ständig wieder diese 13 Jahre Schule durchlaufen. Oder zumindest immer wieder noch ein Studium dranhängen.

KI und die Bilanz

KI-Systeme sind derzeit mit Abstand die energie-hungrigsten Anwendungen im IT Bereich. Die Tatsache, dass derzeit überall auf der Welt neue KI-Systeme entstehen, bedeutet auch, dass sie zu einem enormen Stromkonsument werden. KI-Systeme können aber auch helfen, Strom zu sparen – man muss das langfristig sehen. Aber sich Fragen von ChatGPT beantworten zu lassen wird immer mehr Strom kosten als eine Suchanfrage bei Google.

Gut für uns all: Es zeichnet sich schon ab, dass Energieeffizienz zu einem Wettbewerbsvorteil wird. Strom ist teuer, deshalb haben es Stromfresser wie KI künftig nicht leicht. Denn je größer der Wettbewerb, desto größer ist der Druck, gute und schnelle KI-Systeme anzubieten, die aber auch effizient arbeiten – denn die Kosten müssen stimmen.

Es braucht mehr Transparenz

Trotzdem bleibt für mich als Nutzer das Gefühl, dass man keine Ahnung hat, was da gerade hinter unseren Bildschirmen passiert.

Kurz aufnehmen und überleiten –  Schritt 1 ist: Unternehmen wie OpenAI, Microsoft, Google und Co. müssen transparent machen, wie sie ihre KI-Systeme trainieren und welcher Energieaufwand damit verbunden ist und woher sie den Strom beziehen. Einige produzieren schon ihren eigenen regenerativen Strom, etwa mit Solaranlagen. Wie viel Ökostrom verwendet wird, ist ja wichtig für den CO2-Ausstoß, der mitunter aber schwierig zu ermitteln ist.

Mittlerweile haben sich die meisten großen Konzerne wie Google, Apple, Microsoft etc. zum Ziel gesetzt, bis 2030 klimaneutrale Rechenzentren zu haben – das müsste dann auch für die KI gelten. Sonst kann man sie nicht ohne schlechtes Gewissen einsetzen.

 

Schieb App