EU-AI-Act in der Praxis: Wie Europas KI-Regeln wirken

von | 29.04.2021 | Digital

Das EU-AI-Act ist seit 2024 in Kraft – doch wie wirkt sich die weltweit erste umfassende KI-Regulierung in der Praxis aus? Während Europa Vorreiter bei KI-Regeln bleibt, zeigen sich bereits erste Herausforderungen bei der Umsetzung. Ein Blick auf Stand und Wirkung der europäischen KI-Gesetze.

Künstliche Intelligenz (KI) ist längst kein Modebegriff mehr – sie ist Realität geworden. Von ChatGPT über Bildgeneratoren bis hin zu autonomen Fahrzeugen: KI durchdringt bereits jeden Lebensbereich. Doch mit der rasanten Verbreitung wachsen auch die Risiken. Europa hat darauf reagiert – mit dem weltweit ersten umfassenden KI-Gesetz.

EU-AI-Act: Was seit 2024 gilt

Seit August 2024 ist der EU-AI-Act in Kraft – die weltweit erste umfassende Regulierung für Künstliche Intelligenz. Das Gesetz verbietet besonders risikoreiche KI-Anwendungen komplett und stellt andere unter strenge Auflagen. Damit will Europa einen anderen Weg gehen als etwa die USA oder China.

Das Herzstück: KI-Systeme werden nach Risikokategorien eingeteilt. Von „minimalem Risiko“ (wie Spam-Filter) bis „unannehmbarem Risiko“ (wie Social Scoring). Je höher das Risiko, desto strenger die Regeln.

Komplett verboten sind bereits jetzt:
– Social Scoring-Systeme wie in China
– Manipulative KI, die menschliches Verhalten unterbewusst beeinflusst
– Emotionserkennung am Arbeitsplatz und in Schulen
– Biometrische Kategorisierung zur Ableitung sensibler Daten

Auch die Echtzeit-Gesichtserkennung im öffentlichen Raum ist grundsätzlich verboten – mit wenigen Ausnahmen für schwere Straftaten.

Hochrisiko-KI unter verschärfter Kontrolle

Besonders streng reguliert werden „Hochrisiko-KI-Systeme“. Dazu gehören:
– KI in kritischen Infrastrukturen (Verkehr, Energie)
– KI im Bildungswesen und bei der Jobvermittlung
– KI in der Strafverfolgung und Justiz
– KI in Finanzdienstleistungen
– KI in der Medizin

Für diese Systeme gelten seit Februar 2025 verschärfte Pflichten: Anbieter müssen Risikobewertungen durchführen, Qualitätsmanagementsysteme einführen und detaillierte Dokumentationen erstellen. Außerdem sind sie verpflichtet, ihre Systeme auf Diskriminierung und Bias zu prüfen.

EU Kommissarin Margrete Vestager

Foundation Models: Neue Regeln für AI-Giganten

Eine der wichtigsten Neuerungen betrifft Foundation Models – die Basis-KI-Systeme hinter ChatGPT, Claude oder Gemini. Systeme mit mehr als 10 hoch 25 Rechenoperationen (FLOPs) gelten als „systemisches Risiko“ und unterliegen besonderen Auflagen.

Die Anbieter müssen:
– Modellkarten mit detaillierten Informationen veröffentlichen
– Systemic Risk Assessments durchführen
– Adversarial Testing und Red Teaming implementieren
– Cybersecurity-Maßnahmen dokumentieren
– Den Energieverbrauch beim Training offenlegen

OpenAI, Google, Anthropic und andere haben bereits erste Compliance-Berichte veröffentlicht. Die Kosten dafür sind erheblich – was kleinere Anbieter benachteiligen könnte.

Transparenzpflichten für alle

Auch für KI-Systeme mit „begrenztem Risiko“ gelten neue Regeln. Chatbots müssen sich als KI zu erkennen geben. Deepfakes und KI-generierte Inhalte müssen gekennzeichnet werden. Das betrifft auch Bilder, Videos und Audio-Dateien aus KI-Generatoren.

Viele Plattformen haben bereits reagiert: YouTube kennzeichnet KI-generierte Videos, Instagram markiert KI-Bilder, und TikTok führt entsprechende Labels ein.

Erste Praxiserfahrungen: Erfolge und Probleme

Nach über einem Jahr EU-AI-Act zeigen sich erste Auswirkungen. Positive Entwicklungen:
– Mehr Transparenz bei KI-Systemen
– Verstärkte Investitionen in sichere KI-Entwicklung
– Bewusstsein für KI-Risiken steigt

Doch es gibt auch Kritik. Viele Unternehmen klagen über bürokratische Hürden und hohe Compliance-Kosten. Kleinere KI-Startups befürchten Nachteile gegenüber US-amerikanischen oder chinesischen Konkurrenten.

Besonders umstritten ist die Definition von „Hochrisiko-KI“. Manche Systeme fallen überraschend darunter, andere wiederum nicht. Das sorgt für Rechtsunsicherheit.

Durchsetzung und Strafen

Bei Verstößen drohen empfindliche Strafen: Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für verbotene KI-Praktiken. Für andere Verstöße sind es bis zu 15 Millionen Euro oder 3% des Umsatzes.

Die nationalen Aufsichtsbehörden bauen derzeit ihre Kapazitäten auf. Deutschland hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) als zentrale Stelle bestimmt.

Erste Bußgeldverfahren laufen bereits, vor allem wegen fehlender Kennzeichnung von KI-generierten Inhalten.

Globaler Einfluss des „Brussels Effect“

Wie schon bei der DSGVO wirkt der EU-AI-Act über Europas Grenzen hinaus. Viele internationale Unternehmen übernehmen die europäischen Standards global – der sogenannte „Brussels Effect“.

Auch andere Länder orientieren sich am europäischen Modell. Singapur, Brasilien und sogar einzelne US-Bundesstaaten entwickeln ähnliche Regelwerke.

Ausblick: KI-Regulierung im Wandel

Der EU-AI-Act ist erst der Anfang. Bereits jetzt arbeitet die EU-Kommission an Nachbesserungen. Besonders im Fokus: Multimodale KI-Systeme und neue Entwicklungen wie KI-Agenten.

Auch die globale Koordinierung schreitet voran. Die UN arbeitet an internationalen KI-Standards, und die G7 haben gemeinsame Prinzipien für KI-Governance vereinbart.

Europa bleibt dabei auf seinem Kurs: KI-Innovation fördern, aber mit klaren Leitplanken für Sicherheit und Grundrechte. Ob diese Balance gelingt, wird sich in den kommenden Jahren zeigen.

Zuletzt aktualisiert am 25.02.2026