EU-Parlament hat „AI Act“ verabschiedet – und nun?

von | 15.03.2024 | KI

Der „AI Act“, so nennt sich das Regelwerk ja, soll den Einsatz von KI regeln – und Grenzen setzen. Was genau regelt das Gesetz denn?

Künstliche Intelligenz. KI. Den Begriff können viele vermutlich nicht mehr hören. Denn es vergeht wohl kaum ein Tag, an dem nicht über neue Fortschritte im Bereich der KI berichtet wird – oder mit KI irgend etwas angestellt wurde, was alle erstaunt oder empört. Noch halten sich die Fälle von Missbrauch zum Glück im Rahmen.

Aber wie lange noch? KI entwickelt sich rasant weiter. Das ist auch der Grund, wieso die EU eine Regulierung für KI auf den Weg gebracht hat. Monatelang wurde darüber diskutiert und auch gestritten. Nun hat auch das EU-Parlament das KI-Gesetz verabschiedet. Was bedeutet das genau.

Mit Gesichtserkennung lassen sich gute Dinge tun - aber es ist auch Missbrauch möglich

Mit Gesichtserkennung lassen sich gute Dinge tun – aber es ist auch Missbrauch möglich

AI Act: Vier Risikostufen

Was mit KI alles möglich ist und vor allem sein wird, lässt sich noch gar nicht wirklich abschätzen. Wir haben nur erste Vorstellungen davon – und das geht weit über das hinaus, was die meisten von uns sich vorstellen können, wenn sie mal ein bisschen mit ChatGPT herumexperimentieren. KI könnte in der Wissenschaft für Durchbrüche sorgen, sie könnte die Arbeitswelt umkrempeln, aber auch zur Massenüberwachung eingesetzt werden. KI hat viele Gesichter.

Der „AI Act“ unterteilt die vielen möglichen KI-Anwendungen, also was mit der KI gemacht wird, in verschiedene Risikoklassen. Es sind vier: Unannehmbar, hoch, begrenzt und minimal. Je nachdem, welche Auswirkungen der Einsatz solcher KIs haben könnte. Jede Klasse ist mit unterschiedlichen Vorschriften und Anforderungen verbunden. In den höheren Risikoklassen müssten die Betreiber zum Beispiel auch Dokumentationspflichten erfüllen: Wie und womit wurde die KI trainiert, welchen Zweck soll sie erfüllen.

Was KI auf keinen Fall darf

Aber was sind denn Beispiele für KI-Systeme, die durch den „AI Act“ definitiv verboten sind – also „unannehmbar“?

Das sind KI-Anwendungen, die gegen EU-Werte verstoßen. Beispielsweise eine Massenüberwachung per KI und Gesichtserkennung – erst recht in Kombination mit „Social Scoring“, wie es das in China schon längst gibt. Wenn sich da im öffentlichen Raum jemand nicht regelkonform benimmt – etwa bei Rot über die Ampel geht oder seinen Mülleimer nicht richtig auf die Straße stellt – wird das vom umfassenden KI-Überwachungsapparat erfasst und auch gleich geahndet.

Technisch also machbar. Jetzt durch den „AI Act“ glasklar verboten. Eine massenhafte Gesichtserkennung im öffentlichen Raum ist verboten. Allerdings mit gezielten Ausnahmen, örtlich beschränkt, durch die Polizei. Verboten aber auch eine „Emotionserkennung“ am Arbeitsplatz und Bildungseinrichtungen. Zwar könnte eine KI erkennen, ob Schüler gerade mies drauf oder sogar aggressiv sind – aber solche Systeme dürfen nicht eingesetzt werden.

Das scheint nachvollziehbar.

ChatGPT kann hören, sprechen, verstehen, texten und Bilder generieren

ChatGPT kann hören, sprechen, verstehen, texten und Bilder generieren

Nicht die KI, der Mensch muss die finale Entscheidung fällen

Was aber, wenn man eine KI einsetzt, um zum Beispiel Bewerbungen zu prüfen oder in der Medizin Diagnosen zu fällen?

Solche Anwendungen fallen in die Kategorie „Hochrisiko“. Sie sind erlaubt, aber unter strengen Auflagen. Sollte zum Beispiel eine Behörde auf die Idee kommen, Anträge durch KI bearbeiten zu lassen – was durchaus sinnvoll sein könnte –, so darf die KI nicht allein entscheiden.

Zum Beispiel bei einem Visumsantrag. Die KI darf vorsortieren und Einstufungen machen; entscheiden muss aber der Mensch. Genauso ist es in der Medizin. Die KI darf künftig helfen, Diagnosen oder sogar Therapien zu entwickeln – aber ein Arzt muss sie genehmigen, bestätigen und durchführen. Menschen müssen den Prozess überwachen. In Mannheim zB wird bereits eine KI-gestützte Bestrahlung eingesetzt, seit einigen Wochen.

Ich habe mit dem Klinikleiter gesprochen. Er sagt: Es ist faszinierend, die KI hat bislang noch kein einziges Mal einen schlechteren Therapieplan als wir erarbeitet. Im Gegenteil. Aber es ist wichtig, dass Menschen das überwachen und die finale Entscheidung fällen.

Ein Regelwerk, das nicht perfekt ist

Die ZEIT sagt es so – und ich finde das treffend: „Die beste schlechte KI-Regulierung der Welt“.

Es ist gut, dass wir – als erste Staatengemeinschaft weltweit – eine Regulierung haben. Denn Künstliche Intelligenz ist ausgesprochen machtvoll und leistungsfähig – und wir stehen erst am Anfang. Da erste Leitplanken zu ziehen ist sinnvoll und nützlich. Die Regeln sind alles andere als perfekt, und längst nicht alle sind begeistert.

Wie sollten sie auch: Es gibt unterschiedlichste Interessen. Die einen wollen vor allem Bürgerrechte, die anderen freie Entfaltung der Wirtschaft. Es ist wohl unmöglich, solche Rahmenbedingungen zur Zufriedenheit aller zu definieren. Der „AI Act“ ist also per se unperfekt.

Aber besser als gar keine Regeln. KI in Risikoklassen einzuteilen ist eine gute Lösung. Und wir werden in den kommenden Jahren vermutlich nachjustieren müssen. Doch was wohl noch wichtiger ist als eine Regulierung: Wir brauchen fähige Köpfe im Land und in der EU. Wir brauchen mehr Lehrstühle, die Begeisterung und Interesse für das Thema – um die Chancen zu nutzen und die Risiken zu erkennen und abwehren zu können.

 

 

Schieb App