KI tritt den Siegeszug an. Doch es braucht Regeln, was KI darf und was nicht – und welche Daten erhoben und gespeichert werden dürfen. Die EU-KI-Verordnung ist ein erster Schritt, aber reicht das?
Künstliche Intelligenz ist ein Begriff, der schwer zu fassen ist. Im Kern natürlich schon, die KI im wissenschaftlichen Sinn. Aber der Begriff hat sich längst verselbständigt – wird als Mode- und PR-Begriff verwendet. Auf der IFA waren viele Geräte mit „KI“ gelabelt… Oft eine hoffnungslose Übertreibung und jedenfalls nicht der Bereich, über den wir uns Gedanken oder sogar Sorgen machen müssten.
KI ist kaum beherrschbar
Ein kritischer Blick auf KI in jeder Daseinsform ist immer dann nötig, wenn sie in unser Leben eingreift – und das passiert durchaus. Sehr häufig sogar. Wir wissen nur nicht, dass es sich um KI handelt. Welche Inhalte uns in den sozialen Medien präsentiert werden, entscheiden KI-Algorithmen. Welche Antworten wir bekommen, wenn wir ChatGPT, Claude oder Gemini befragen, entscheiden KI-Systeme. Was uns YouTube, Netflix oder Spotify vorschlagen, basiert auf KI-Empfehlungen.
Neu hinzugekommen sind in den letzten Jahren die generativen KI-Systeme wie GPT-4, Midjourney oder DALL-E. Sie erstellen Texte, Bilder und Videos, die kaum noch von menschlichen Werken zu unterscheiden sind. Deepfakes werden immer perfekter, KI-generierte Nachrichten überschwemmen das Internet. In welche Stimmungslage wir uns gerade befinden, das beurteilen KI-Systeme mittlerweile in Echtzeit.
Bisher dürfen sie das munter und nahezu schrankenlos. Der klassische Datenschutz greift kaum oder schwer, denn welche Daten fallen an, welche werden verarbeitet und welche Ergebnisse entstehen? Das wissen selbst die Betreiber von KI-Systemen nicht immer. Selbst wie und warum KI-Systeme Kreditanträge bearbeiten oder ablehnen, verstehen die Betreiber mitunter nicht mal selbst.
EU-KI-Verordnung als erster Schritt
Seit August 2024 ist die EU-KI-Verordnung (AI Act) in Kraft – das weltweit erste umfassende KI-Gesetz. Es teilt KI-Systeme in vier Risikokategorien ein: von „minimales Risiko“ bis „unannehmbares Risiko“. Hochrisiko-Anwendungen wie biometrische Identifikation oder KI in kritischen Infrastrukturen unterliegen strengen Auflagen. Verboten sind manipulative KI-Systeme und solche, die Kinder ausnutzen könnten.
Doch die Verordnung hat Schwächen. Foundation Models wie GPT oder Claude fallen oft in Grauzonen. Die Durchsetzung ist komplex, die Strafen zwar hoch (bis zu 35 Millionen Euro), aber die Kontrolle schwierig. Viele KI-Unternehmen sitzen in den USA oder China und entziehen sich europäischer Regulierung.
Kennzeichnungspflicht und Transparenz
Ein wichtiger Fortschritt: KI-generierte Inhalte müssen gekennzeichnet werden. YouTube, Meta und andere Plattformen haben entsprechende Labels eingeführt. Doch die Umsetzung ist lückenhaft. Viele KI-Tools arbeiten im Hintergrund, ohne dass Nutzer es bemerken. Bei Suchmaschinen, Empfehlungsalgorithmen oder automatisierten Entscheidungen fehlt oft jede Transparenz.
KI bietet eine Menge Chancen, birgt aber eben auch Risiken. So gibt es zum Beispiel das Problem der verdeckten Diskriminierung. Studien zeigen: KI-Systeme benachteiligen systematisch Frauen, Minderheiten oder bestimmte Altersgruppen. Bei Bewerbungsverfahren, Kreditvergaben oder Strafverfolgung kann das dramatische Folgen haben.
Die großen Herausforderungen
Die größte Herausforderung sind die Tech-Giganten. OpenAI, Google, Meta und Co. investieren Milliarden in KI-Forschung und haben einen enormen Wissensvorsprung. Sie prägen die Standards, bevor Regulierer überhaupt verstehen, was technisch möglich ist. Das Tempo der KI-Entwicklung überfordert traditionelle Gesetzgebungsverfahren.
Besonders problematisch: die Intransparenz der Trainingsdaten. Niemand weiß genau, mit welchen Daten die großen Sprachmodelle trainiert wurden. Urheberrechtsverletzungen sind an der Tagesordnung, Künstler und Autoren klagen reihenweise. Die Frage nach fairer Vergütung für verwendete Inhalte ist völlig ungeklärt.
Dazu kommt der massive Energieverbrauch. KI-Training und -Betrieb verschlingen Unmengen an Strom. Ein einziges großes Sprachmodell verbraucht beim Training so viel Energie wie eine Kleinstadt im Jahr. Von Nachhaltigkeit keine Spur.
Was jetzt passieren muss
Wir brauchen mehr als nur Gesetze. Technische Standards für Transparenz und Erklärbarkeit müssen entwickelt werden. KI-Systeme sollten ihre Entscheidungswege nachvollziehbar machen können. Algorithmus-Audits müssen zur Pflicht werden, besonders bei gesellschaftskritischen Anwendungen.
Verbraucherschutz muss gestärkt werden. Menschen müssen das Recht haben zu erfahren, wann und wie KI über sie entscheidet. Sie brauchen Widerspruchsrechte und alternative Verfahren. Bildung ist entscheidend: Wer KI-Systeme nutzt, sollte deren Grenzen und Risiken verstehen.
International braucht es koordinierte Anstrengungen. Die EU kann nicht allein die Weltregeln für KI bestimmen. Dialog mit den USA, China und anderen KI-Mächten ist unerlässlich. Sonst droht ein Regulierungsdschungel, der Innovation hemmt, aber Probleme nicht löst.
Zugegeben: Es ist nicht einfach, gesunde und funktionstüchtige Regeln aufzustellen. Aber die Zeit drängt. KI wird immer mächtiger, die Auswirkungen immer weitreichender. Faire Regeln für KI sind kein Nice-to-have mehr, sondern überlebenswichtig für unsere digitale Zukunft.
Zuletzt aktualisiert am 03.03.2026