Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Apple und Meta wollen ihre angekündigten KI-Modelle in der EU nicht ausrollen – angeblich seien die juristischen Risiken aufgrund der Regeln in der EU zu hoch. Begründete Sorge oder Machtspielchen?

KI, KI, KI – es gibt in der Digitalbranche kaum noch ein anderes Thema. Das liegt daran, dass sich die Entwicklung von KI seit der Einführung von ChatGPT in schier atemberaubendem Tempo weiter entwickelt.

Die großen KIs werden in den USA entwickelt, nicht in Europa. Doch Europa hat als erster Kontinent eine Regulierung, den „AI Act“, der das Tempo der Entwicklung bremst.

Mittlerweile sagen erste Konzerne wie Apple oder Meta, dass sie ihre neuesten KI-Lösungen gar nicht erst in Europa anbieten wollen. Aus rechtlichen Gründen. Kann das gewollt gewesen sein und vor allem, ist das vernünftig?

Der Digital Markets Act soll die Macht der großen Konzerne beschneiden
Der Digital Markets Act soll die Macht der großen Konzerne beschneiden

Apple und Meta wollen ihre KI nicht in die EU bringen

Apple und Meta haben jüngst erst neue KI-Modelle angekündigt, die Nutzern das Leben erleichtern sollen. Wieso kommen die jetzt zwar in USA, aber nicht in der EU?

Beide Konzerne argumentieren, dass es für sie entweder rechtlich viel zu unsicher wäre, mit den Lösungen auf den Markt zu kommen – im Fall von Apple übrigens nicht nur eine KI, sondern auch eine Technologie, die es erlaubt, auf einem Mac das iPhone fernzusteuern. Oder wenn man sich an die Regulierungen halte, befürchte man Risiken für Datenschutz und Privatsphäre.

Damit kritisieren die Konzerne weniger den „AI Act“, der KI-Anwendungen in Europa in Risikoklassen unterteilt und riskante KIs reguliert, sondern vielmehr den „Digital Markets Act“, der seit Mai 2023 vollständig gültig ist.

Der DMA verbietet es den großen Gatekeepern, eigene Produkte zu bevorzugen. Wenn also in Apples Betriebssystem ausschließlich die eigenen KI-Modelle integriert sind, könnte das schmerzhafte Bußgelder nach sich ziehen.

Aber auch der AI Act spielt eine Rolle und die hohen Datenschutzstandards, weil sich noch nicht immer genau sagen lässt, welche Daten von KI verarbeitet werden.

Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten
Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten

KI sollte für Facebook und Instagram trainiert werden

Viele können sich bestimmt erinnern: Vor ein paar Wochen haben Facebook und Instagram damit begonnen, die User zu fragen, ob ihre Daten für eine kommende Meta AI für das Training verwendet werden dürfen.

Das scheint erstmal vom Tisch. In den USA war es nicht erforderlich, die User vorher zu fragen.

Hierzulande ist noch nicht ganz klar, mit welchen Daten eine KI trainiert werden darf. Aber sehr wahrscheinlich ist eine solche Zustimmung tatsächlich erforderlich.

Das macht die Sache aber natürlich sehr kompliziert für Meta: Die müssten genau unterscheiden, welche Daten ins Training fließen dürfen und welche nicht. Wenn Du dagegen bist und ich kein Problem damit habe, was ist mit einem Kommentar von Dir auf ein Posting von mir? Wirklich schwierig.

Letztlich hat Meta argumentiert: Am Ende könnten wir den Nutzern in Europa nur eine zweitklassige KI anbieten, da wir sie nicht ausreichend trainieren können.

Auch das Argument ist nicht von der Hand zu weisen: Jede KI ist umso besser, je besser sie trainiert wurde. Nur: Irgendwo müssen die Daten ja herkommen.

Wenn alle super KIs wollen, aber wenn es geht nichts dafür bezahlen, aber bloß nicht die eigenen Postings analysiert werden dürfen – das geht unterm Strich einfach nicht.

Meta AI soll eine Alternative zu ChatGPT werden
Meta AI soll eine Alternative zu ChatGPT werden

Begründete Zurückhaltung oder Strategie?

Sind die öffentlichen Beschwerden von Apple, Meta und einigen anderen großen Konzernen und ihre Zurückhaltung, neue Produkte und Dienste in der EU einzuführen, also begründet – oder nur Strategie, damit sie von der EU-Kommission einen Persilschein bekommen?

Ich würde sagen: Beides!!!

Die möglichen Strafen bei Verstößen gegen den Digital Markets Act oder den AI Act sind mittlerweile enorm. Da wollen auch große Konzerne zu große Risiken vermeiden. Doch natürlich pokern die Konzerne auch ein wenig. Apple zum Beispiel hat jahrelang argumentiert, ein einheitliches Ladekabel mit USB-C würde Innovation verhindern. Jetzt haben auch iPhones eine Ladebuchse für USB-C.

Natürlich versuchen die Konzerne, den Rahmen abzustecken und die EU-Kommission zu Eingeständnissen bringen.

Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln fpr KI aufgeschrieben
Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln für KI aufgeschrieben

Hat die EU zu strenge Regeln?

Stellt sich doch die wichtigste Frage überhaupt: Sind die Regeln in Europa zu streng und verhindern Innovation oder schützen sie die Menschen?

Das zu beantworten, ist wirklich nicht leicht.

Der bekannte Digital-Publizist Sascha Lobo hat in seiner aktuellen Spiegel-Kolumne geschrieben: „Europa führt einen Kampf gegen den Fortschritt“.

Aus Sicht der Konzerne ist das sicher so. Lobo schreibt auch, es gäbe „in Teilen der EU-Politik, der Medienlandschaft und der Öffentlichkeit überraschend häufig eine strukturell anti-fortschrittliche Haltung: eine Ideologie der Tech-Verachtung.“

Ganz so weit würde ich nicht gehen. Aber die Argumente sind wichtig, um sich zu fragen, ob alle Regeln wirklich sinnvoll sind und den Menschen helfen.

In den USA haben wir die fortschrittlichste KI der Welt, in Asien die effizienteste (weil es da gar keine Regeln gibt, die Menschen schützen) – und in Europa die regulierteste. Ist das hilfreich?

Wir alle ärgern uns über Überregulierung beim Datenschutz: Die Konzerne spionieren uns immer noch aus. Ziel verfehlt. Aber beim Arzt müssen wir Formulare unterschreiben, dass der Arzt uns anschreiben darf – und im Kindergarten bekommen die Betreuerinnen Stressherpes, ob sie eine Whatsapp-Gruppe einrichten dürfen.

Aus Europa werden nicht die Speerspitzen der KI kommen (können). Aus vielen Gründen. Aber doch viele interessante Geschäftsmodelle und Ideen rund um die großen Ökosysteme. Wenn die in Europa nicht mehr eingesetzt werden können, ist niemandem geholfen.

Manchmal ist weniger mehr. Und trennschärfer formuliert.

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

Die Mitgliedsstaaten der EU haben eine Regulierung von Künstlicher Intelligenz final zugestimmt. Spätestens in zwei Jahren gelten die Regeln verbindlich.

Künstliche Intelligenz (KI) ist das mit Abstand mächtigste Werkzeug, das die Menschheit jemals entwickelt hat. Noch ist nicht abzusehen, welche Möglichkeiten sich irgendwann ergeben – welche Chancen und Risiken die neue Technologie in Zukunft mit sich bringt.

Die EU-Staaten haben nun nach langer Zeit der Verhandlung ein „AI Act“ genanntes KI-Gesetz beschlossen, das bestimmten Einsatz von KI innerhalb der EU komplett verbietet.

Mit Gesichtserkennung lassen sich gute Dinge tun - aber es ist auch Missbrauch möglich
Mit Gesichtserkennung lassen sich gute Dinge tun – aber es ist auch Missbrauch möglich

Einteilung in Risikoklassen

Der AI Act der Europäischen Union ist ein bahnbrechender Gesetzesentwurf, der darauf abzielt, den Einsatz von Künstlicher Intelligenz (KI) umfassend zu regulieren.

Als weltweit erste Gesetzgebung dieser Art soll der AI Act einheitliche Regeln für die Entwicklung, den Vertrieb und die Nutzung von KI-Systemen in der EU schaffen. Ziel ist es, die Risiken von KI zu minimieren und gleichzeitig Innovation und Wettbewerbsfähigkeit zu fördern.

Der Entwurf sieht ein risikobasiertes Regelwerk vor, das KI-Systeme je nach ihrem Gefährdungspotenzial in vier Kategorien einteilt: von minimal bis unakzeptabel riskant.

Hochriskante Anwendungen, etwa in sensiblen Bereichen wie Gesundheit, Verkehr oder Strafverfolgung, sollen strengen Auflagen unterliegen. Dazu zählen Anforderungen an Datenqualität, Transparenz, menschliche Aufsicht und Cybersicherheit. Der AI Act könnte so weltweit Maßstäbe für einen verantwortungsvollen Umgang mit dieser Zukunftstechnologie setzen.

Mit dem Gesicht das Handy entsperren
Mit dem Gesicht das Handy entsperren oder mit KI erkennen lassen

Gesichtserkennung und Massenüberwachung per KI verboten

Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sollen vollständig verboten werden. So ist eine Massenüberwachung und auch eine massenhafte Gesichtserkennung im öffentlichen Raum ausdrücklich verboten, sowohl dem Staat wie Unternehmen.

Dabei gibt es allerdings Ausnahmen: Polizei und andere Sicherheitsbehörden sollen eine solche Gesichtserkennung im öffentlichen Raum im Einzelfall nutzen dürfen, um ganz bestimmte Straftaten wie Menschenhandel oder Terrorismus zu verhindern oder zu verfolgen. Bürgerrechtler stoßen sich an dieser Ausnahme.

Diese Einschränkungen erfolgen wohl begründet: In China kommt KI bereits zum Einsatz, um die Bevölkerung engmaschig zu überwachen.

Gesichtserkennung identifiziert Personen, die sich in der Öffentlichkeit nicht regelkonform verhalten – und werden mit „Strafpunkten“ im sogenannten „Social Scoring“ bedacht. Eine albtraumhafte Vorstellung, die durch das KI-Gesetz innerhalb der EU verhindert werden soll.

Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial
Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial

Transparenzpflichten und Anpassungen

Aber auch KI-Systeme, die als besonders risikoreich gelten und in der kritischen Infrastrukture oder im Bildungs- und Gesundheitswesen zum Einsatz kommen, müssen künftig strenge Anforderungen erfüllen. KI-Systeme dürfen keine eigenständigen Entscheidungen fällen und müssen Transparenzpflichten erfüllen.

KI entwickelt sich derzeit rasant. Die Macher der KI-Gesetz sind sich darüber im Klaren, dass die Gesetze mit der Zeit immer wieder nachjustiert werden müssen, um Möglichkeiten nicht unnötig einzuschränken und mögliche neue Risiken einzudämmen. Denn niemand kann heute bereits absehen, welche Möglichkeiten KI in ein, zwei oder zehn Jahren bietet.

Vorteile für Verbraucher

Für Nutzer werden Auflagen und Einschränkungen durchaus spürbar werden. So müssen die Menschen über den Einsatz „hochriskanter“ KI-Systeme informiert werden. Außerdem muss gewährleistet bleiben, dass Menschen die Kontrolle behalten, etwa bei KI-gestützter Therapie in der Medizin.

KI-Systeme müssen außerdem so entwickelt sein, dass Risiken wie Fehler, Manipulationen oder Sicherheitslücken minimiert werden. Auch müssen durch KI erzeugte Inhalte gekennzeichnet werden. Facebook hat im Mai bereits damit begonnen, mit KI erzeugte fotorealistische Bilder mit dem Hinweis „Made with AI“ zu kennzeichnen.

Bitkom formuliert Kritik am KI-Gesetz

Der Branchenverband Bitkom kritisiert allerdings, das KI-Gesetz lasse wesentliche Fragen offen. Besonders problematisch sei, dass die eigentliche Regulierungsarbeit – also die Ausformulierung der Gesetze in Deutschland – erst jetzt erfolge. Es sei noch nicht klar, ob die KI-Industrie einen Schub erhalte oder jede Menge Hemmnisse.

In der Tat könnten zu strenge Regeln das Risiko bergen, dass in Europa keine oder weniger KI-Lösungen entwickelt werden. Denn Investoren müssten die Gewissheit haben, dass ungehindert geforscht und entwickelt werden kann – und neue KI-Lösungen getestet und eingesetzt werden können.

KI-Gesetz erst in zwei Jahren vollständig gültig

Das KI-Gesetz ist nun beschlossen. Nach der Bestätigung der EU-Länder werden die neuen KI-Regeln erst einmal im Amtsblatt veröffentlicht und treten 20 Tage später in Kraft. Zwei Jahre nach dem Inkrafttreten sollen sie dann in allen EU-Staaten gelten; jedes einzelne Land muss sie auch in Gesetzgebung umsetzen.