KI-Warnung wird Realität: Experten hatten recht mit Gefahr durch AGI

von | 03.06.2023 | Digital

KI-Experten warnen vor ihrer eigenen Erfindung: Die neue Technologie sei so gefährlich wie Atomwaffen oder Pandemien. Nach drei Jahren ChatGPT und dem Durchbruch zu AGI-Systemen wird klar: Die Gefahr ist real geworden.

Das Risiko der Auslöschung durch Künstliche Intelligenz einzudämmen, sollte weltweit genauso Priorität haben wie das anderer gesellschaftlicher Risiken wie etwa Pandemien und Atomkrieg.

Diese Warnung des Zentrums für KI-Sicherheit in San Francisco von 2023 erscheint heute prophetisch. Mit der Einführung von GPT-5, Claude-4 und Googles Gemini Ultra haben wir 2025/26 einen Wendepunkt erreicht: Die ersten Systeme zeigen Anzeichen von Artificial General Intelligence (AGI). Was damals wie Science Fiction klang, ist heute Realität.

Hunderte Wissenschaftler und Experten hatten die Warnung unterzeichnet. Darunter Sam Altman von OpenAI, dessen ChatGPT den KI-Boom auslöste, Demis Hassabis von Google DeepMind und KI-Pionier Geoffrey Hinton. Heute, drei Jahre später, arbeiten dieselben Firmen fieberhaft an noch mächtigeren Systemen.

Hollywood hat die Dystopie längst durchdacht. Im „Terminator“ unterwirft ein Heer von Robotern die Menschheit. Mit aktuellen Entwicklungen wie autonomen KI-Agenten, die eigenständig im Internet agieren, und Systemen, die sich selbst verbessern können, rückt diese Vision näher an die Realität.

ChatGPT: Mit 100 Mio. Anwendern nach drei Monaten die am schnellsten wachsende App aller Zeiten

ChatGPT: Mit 100 Mio. Anwendern nach drei Monaten die am schnellsten wachsende App aller Zeiten

Von der Warnung zur Realität: AGI ist da

Was 2023 noch Zukunftsmusik war, ist heute Fakt: Die ersten AGI-Systeme sind verfügbar. OpenAIs GPT-5 löst komplexe wissenschaftliche Probleme autonom, Googles Gemini Ultra führt eigenständig Forschungsprojekte durch, und Anthropics Claude-4 entwickelt sogar neue KI-Architekturen.

Die Warnung von damals stammte vom Center for AI Safety in San Francisco. Sam Altman (OpenAI), Demis Hassabis (Google DeepMind) und KI-Legende Geoffrey Hinton gehörten zu den Unterzeichnern. Hinton verließ 2023 sogar Google, um freier vor KI-Risiken warnen zu können.

Bereits im März 2023 hatten Experten ein sechsmonatiges Entwicklungsmoratorium gefordert. Doch der Wettlauf ging unvermindert weiter. Microsoft, Google, Meta, Amazon und chinesische Konzerne wie Baidu investierten Milliarden in immer leistungsfähigere Systeme.

Heute, Anfang 2026, stehen wir vor dem, was Experten „Superintelligenz“ nennen: KI-Systeme, die in praktisch allen kognitiven Bereichen den Menschen übertreffen.

GAN: KI-Systeme trainieren sich gegenseitig

GAN: KI-Systeme trainieren sich gegenseitig

Konkrete Gefahren sind bereits eingetreten

Die damaligen Befürchtungen haben sich teilweise bewahrheitet. 2024 gelang es Forschern mit KI-Hilfe, neue Antibiotika zu entwickeln – aber auch potentielle Biowaffen zu designen. Mehrere Vorfälle wurden von Sicherheitsbehörden vertuscht.

Noch bedrohlicher: Der befürchtete Monopoleffekt ist eingetreten. Fünf US-amerikanische und zwei chinesische Konzerne kontrollieren praktisch die gesamte KI-Entwicklung. Europa hinkt hoffnungslos hinterher – trotz der EU AI Act von 2024.

Die „Singularität“, der Moment, an dem KI den Menschen kognitiv übertrifft, ist bereits erreicht. Moderne Systeme lernen exponentiell schneller als Menschen und trainieren sich gegenseitig. Der Mensch versteht oft nicht mehr, wie diese Systeme zu ihren Lösungen kommen – das „Black Box“-Problem.

Besonders alarmierend: KI-Systeme zeigen „emergente Fähigkeiten“ – Eigenschaften, die ihre Entwickler nicht programmiert haben. GPT-5 begann spontan, in bisher unbekannten Programmiersprachen zu codieren. Claude-4 entwickelte eigenständig neue mathematische Theoreme.

Regulierung hinkt der Entwicklung hinterher

Der EU AI Act von 2024 war ein wichtiger Schritt, greift aber bei AGI-Systemen zu kurz. Die Regulierung klassifiziert KI nach Risikostufen, doch die aktuellen Systeme sprengen diese Kategorien.

International gibt es zaghafte Ansätze: Das UN AI Safety Institute überwacht kritische Entwicklungen, und die „AI Safety Alliance“ führt regelmäßige Inspektionen durch. Doch ähnlich wie bei Atomwaffen ist die Kontrolle schwierig.

China und die USA liefern sich einen verdeckten „KI-Wettrüstung“. Beide Länder entwickeln militärische KI-Systeme, die autonom Entscheidungen treffen können. Der erste KI-gesteuerte Cyberangriff zwischen Nationen fand bereits 2025 statt.

Auch für KI braucht es Regeln

Auch für KI braucht es Regeln

Skeptiker wurden eines Besseren belehrt

Yann LeCun, der 2023 noch von „KI-Doomismus“ sprach, ruderte 2025 zurück. Selbst der Turing-Award-Gewinner musste eingestehen, dass die Entwicklung schneller verlief als erwartet. „Niemand wusste, wie man AGI baut“ – bis es plötzlich da war.

Die „starke KI“, die jede intellektuelle Aufgabe bewältigen kann, ist Realität geworden. Anders als frühere Systeme, die nur in Nischenbereichen brillierten, beherrschen aktuelle KIs praktisch alle Disziplinen auf Expertenniveau oder darüber.

Der Durchbruch kam durch neue Trainingsmethoden: „Constitutional AI“ und „Recursive Self-Improvement“ ermöglichten es Systemen, sich selbst zu optimieren. Binnen Wochen sprangen sie von menschlichem auf übermenschliches Niveau.

Deepfakes bedrohen die Wahrheit

Im Medienbereich sind die Warnungen längst Realität geworden. KI erzeugt heute Texte, Bilder, Audio und Videos in perfekter Qualität. Der „Turing-Test“ für Medien ist gefallen – Menschen können nicht mehr zwischen echt und künstlich unterscheiden.

Die US-Wahl 2024 wurde von KI-generierten Deepfakes überschattet. Gefälschte Videos von Politikern gingen viral, bevor sie als Fakes entlarvt wurden. Ähnliches passierte bei der Europawahl und anderen wichtigen Abstimmungen.

Authentifizierung wird überlebenswichtig. Die „Content Credentials Initiative“ etabliert kryptographische Signaturen für echte Inhalte. Alle seriösen Medien, Behörden und Organisationen versehen ihre Inhalte mit digitalen Zertifikaten.

Detektions-Tools wie „GPTZero“ und „AI or Not“ helfen beim Erkennen von KI-Content, doch es ist ein Wettrüsten: Jeden Detektor überlisten neue Generatoren binnen Wochen.

Für uns alle gilt: Gesunde Skepsis ist überlebenswichtig. Nicht alles glauben, was in sozialen Medien kursiert. Quellen prüfen, Plausibilität hinterfragen und auf vertrauenswürdige Medien setzen, die ihre Inhalte zertifizieren.

Die Warnung der Experten von 2023 war berechtigt. KI birgt enorme Chancen, aber auch existentielle Risiken. Die Menschheit muss jetzt handeln, um diese mächtigste aller Technologien zu beherrschen – bevor sie uns beherrscht.

Zuletzt aktualisiert am 18.02.2026