Der Wettbewerb um die leistungsfähigsten und schnellsten KI-Systeme nimmt Fahrt auf. Die meisten kommen aus den USA. Mit „Luminous“ gibt es aber auch ein vielversprechendes Angebot aus Deutschland – und das ist effizienter und verbraucht weniger Energie.
Noch schreibt hier ein echter Autor aus Fleisch und Blut.
Muss man heutzutage betonen, denn man könnte den Eindruck bekommen, die KI übernimmt im Eiltempo so ziemlich alle kreativen Aufgaben. ChatGPT schreibt Texte, Midjourney erstellt Bilder. Es gibt Apps, um Stimmen oder Videos zu bauen, die echt aussehen…
Es ist gerade wahnsinnig viel Bewegung in dem Thema. Spotify zum Beispiel hat einen virtuellen DJ angekündigt: KI spricht mit künstlicher Stimme zum User und spielt nur für ihn oder sie eine individuelle Playlist. Abgestimmt auf Geschmack und aktuelle Stimmung. Die KI drängt also in alle Bereiche unsere Lebenswelt. Aber wo stehen wir in Deutschland da – und wie viel Strom/Energie kostet das alles eigentlich?
Ein KI-System aus Heidelberg: „Luminous“ von Aleph Alpha
Im Augenblick macht ja vor allem ChatGPT von sich Reden: Dieser Chat-Bot von OpenAI, der nicht nur Fragen beantwortet oder Hausaufgaben schreibt, sondern irgendwie alles kann. Auch Google und Microsoft haben hektisch KI in ihre Suchmaschinen integriert. Alles US-Konzerne – nix aus Europa oder gar Deutschland.
Es gibt einen Lichtblick: Das KI-Unternehmen Aleph Alpha aus Heidelberg hat ein KI-Modell entwickelt, das sich „Luminous“ nennt – also übersetzt „leuchtend“, das es durchaus mit ChatGPT und vergleichbar leistungsfähigen KI-Systemen aufnehmen kann. Laut aktuellen Vergleichstests ist das deutsche System sogar doppelt so effizient wie das von OpenAI, über das derzeit alle reden.
Man müsste sehr ins Detail gehen, um die Testweise zu erklären und wie sich solche Systeme vergleichen lassen. Aber Luminous ist ein 70 Milliarden Parameter großes Modell – das erklärt, wie viel und wie lange trainiert werden muss –, während die gängigen Systeme wie ChatGPT aus 175 Milliarden Parameter bestehen. Demnächst wollen die Deutschen ein deutlich besser trainiertes System vorstellen. Das könnte und müsste der Logik folgend dann schneller sein und bessere Ergebnisse liefern. Besser bedeutet: Besseres Verständnis, was gewünscht ist – und bessere Ergebnisse.
KI-System verbrauchen beim Training eine Menge Energie
Für einen in Computerdingen eher unerfahrenen Menschen ist es ja schwer vorstellbar, wie KI-Systeme überhaupt funktionieren. Wie schaffen sie sich das Wissen drauf und wieso ist es so aufwändig und teuer?
Es gibt verschiedene Konzepte für KI-Systeme. ChatGPT und vergleichbare Systeme werden nicht programmiert, wie bei Computern sonst üblich, sondern sie werden „trainiert“: Experten „füttern“ die Systeme mit Inhalten. In diesem Fall mit Milliarden von Texten aus den unterschiedlichsten Quellen. Der Lernprozess wird von Menschen begleitet und gesteuert (bei anderen KI-Systemen ist das nicht so), deshalb wird hier von „pretrained“ Modellen gesprochen.
Diese Lernphase ist besonders zeit- und kostspielig: Es braucht unzählige Rechner und zigtausende Stunden, um das Material zu importieren und analysieren zu lassen. Das alles lange bevor die KI überhaupt benutzt werden kann. Später müssen noch Ebenen (Layer) eingezogen werden, um das Material zu kategorisieren: Etwa, so sehen Radiotexte aus, so Lyrik, so Texte für Blogposts. Wenn wir einen ChatBot nutzen, greifen wir auf dieses vorbereitete Material zurück.
Enormer Energieaufwand
Klingt nicht nur nach einem enormen Energieaufwand, sondern ist auch einer.
Es kann Monate dauern, ein komplexes System zu trainieren – und komplette Rechenzentren auslasten. Leider machen die großen Betreiber wie Google, Facebook, OpenAI keine konkreten Aussagen über den tatsächlichen Aufwand. Das macht es schwer, das einzuschätzen.
Das Training eines einzelnen Modells erzeugt nach einer aktuellen Studie so viel Emissionen wie ein durchschnittlicher Amerikaner in 17 Jahren – oder in etwa so viel wie 300 Flüge von New York nach San Francisco. Eine Untersuchung, die das Magazin „Wired“ zitiert, sieht einen Verbrauch von über 1.200 Megawattstunden und so viel CO2-Emissionen wie 550 Flüge zwischen New York und San Francisco.
Je mehr die KI können soll, desto mehr Strom frisst sie letztlich. Und da jetzt überall KI rein soll, nicht nur in die Suchmaschinen Google und Bing, sondern auch in Apps, wird der Energiebedarf explodieren. Es wird Zeit, dass das transparent gemacht wird. Wie viel CO2 ausgestoßen wird, hängt natürlich davon ab, ob vor allem fossile oder grüne Energie zum Einsatz kommt.
Kosten: Wer soll das alles bezahlen?
ChatGPT und auch die KI-Dienste in Bing und Google werden Unternehmenskunden berechnet. Die Preise sind ordentlich. Ich bezahlt auch für ChatGPT, 20 EUR im Monat – damit ich keine Einschränkungen habe und alles nutzen kann. Das Problem, das wir hier haben: Strom ist in Europa und besonders in Deutschland teurer als anderswo.
Wenn ein Startup wie Aleph Alpha kommt und ein neues Modell aufsetzen will, sind es vor allem die Stromkosten, die schnell in die Millionen gehen können. Wir haben also einen doppelten Standortnachteil in Deutschland: Wenig Know-how, wenige Experten – und hohe Stromkosten. Nun hat das deutsche Startup mit seinem „Luminous“-KI-Modell einen fetten Vorteil: Es ist sehr viel effizienter, verbraucht also deutlich weniger Strom als andere Systeme – bei gleicher oder sogar besserer Leistung.
Das ist bemerkenswert und kann sich zu einem großen Wettbewerbsvorteil für dieses Startup entwickeln. Wir brauchen mehr solcher Systeme, die weniger Strom verbrauchen, damit günstiger sind und die Umwelt nicht so stark belasten.