Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Apple und Meta wollen ihre angekündigten KI-Modelle in der EU nicht ausrollen – angeblich seien die juristischen Risiken aufgrund der Regeln in der EU zu hoch. Begründete Sorge oder Machtspielchen?

KI, KI, KI – es gibt in der Digitalbranche kaum noch ein anderes Thema. Das liegt daran, dass sich die Entwicklung von KI seit der Einführung von ChatGPT in schier atemberaubendem Tempo weiter entwickelt.

Die großen KIs werden in den USA entwickelt, nicht in Europa. Doch Europa hat als erster Kontinent eine Regulierung, den „AI Act“, der das Tempo der Entwicklung bremst.

Mittlerweile sagen erste Konzerne wie Apple oder Meta, dass sie ihre neuesten KI-Lösungen gar nicht erst in Europa anbieten wollen. Aus rechtlichen Gründen. Kann das gewollt gewesen sein und vor allem, ist das vernünftig?

Der Digital Markets Act soll die Macht der großen Konzerne beschneiden
Der Digital Markets Act soll die Macht der großen Konzerne beschneiden

Apple und Meta wollen ihre KI nicht in die EU bringen

Apple und Meta haben jüngst erst neue KI-Modelle angekündigt, die Nutzern das Leben erleichtern sollen. Wieso kommen die jetzt zwar in USA, aber nicht in der EU?

Beide Konzerne argumentieren, dass es für sie entweder rechtlich viel zu unsicher wäre, mit den Lösungen auf den Markt zu kommen – im Fall von Apple übrigens nicht nur eine KI, sondern auch eine Technologie, die es erlaubt, auf einem Mac das iPhone fernzusteuern. Oder wenn man sich an die Regulierungen halte, befürchte man Risiken für Datenschutz und Privatsphäre.

Damit kritisieren die Konzerne weniger den „AI Act“, der KI-Anwendungen in Europa in Risikoklassen unterteilt und riskante KIs reguliert, sondern vielmehr den „Digital Markets Act“, der seit Mai 2023 vollständig gültig ist.

Der DMA verbietet es den großen Gatekeepern, eigene Produkte zu bevorzugen. Wenn also in Apples Betriebssystem ausschließlich die eigenen KI-Modelle integriert sind, könnte das schmerzhafte Bußgelder nach sich ziehen.

Aber auch der AI Act spielt eine Rolle und die hohen Datenschutzstandards, weil sich noch nicht immer genau sagen lässt, welche Daten von KI verarbeitet werden.

Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten
Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten

KI sollte für Facebook und Instagram trainiert werden

Viele können sich bestimmt erinnern: Vor ein paar Wochen haben Facebook und Instagram damit begonnen, die User zu fragen, ob ihre Daten für eine kommende Meta AI für das Training verwendet werden dürfen.

Das scheint erstmal vom Tisch. In den USA war es nicht erforderlich, die User vorher zu fragen.

Hierzulande ist noch nicht ganz klar, mit welchen Daten eine KI trainiert werden darf. Aber sehr wahrscheinlich ist eine solche Zustimmung tatsächlich erforderlich.

Das macht die Sache aber natürlich sehr kompliziert für Meta: Die müssten genau unterscheiden, welche Daten ins Training fließen dürfen und welche nicht. Wenn Du dagegen bist und ich kein Problem damit habe, was ist mit einem Kommentar von Dir auf ein Posting von mir? Wirklich schwierig.

Letztlich hat Meta argumentiert: Am Ende könnten wir den Nutzern in Europa nur eine zweitklassige KI anbieten, da wir sie nicht ausreichend trainieren können.

Auch das Argument ist nicht von der Hand zu weisen: Jede KI ist umso besser, je besser sie trainiert wurde. Nur: Irgendwo müssen die Daten ja herkommen.

Wenn alle super KIs wollen, aber wenn es geht nichts dafür bezahlen, aber bloß nicht die eigenen Postings analysiert werden dürfen – das geht unterm Strich einfach nicht.

Meta AI soll eine Alternative zu ChatGPT werden
Meta AI soll eine Alternative zu ChatGPT werden

Begründete Zurückhaltung oder Strategie?

Sind die öffentlichen Beschwerden von Apple, Meta und einigen anderen großen Konzernen und ihre Zurückhaltung, neue Produkte und Dienste in der EU einzuführen, also begründet – oder nur Strategie, damit sie von der EU-Kommission einen Persilschein bekommen?

Ich würde sagen: Beides!!!

Die möglichen Strafen bei Verstößen gegen den Digital Markets Act oder den AI Act sind mittlerweile enorm. Da wollen auch große Konzerne zu große Risiken vermeiden. Doch natürlich pokern die Konzerne auch ein wenig. Apple zum Beispiel hat jahrelang argumentiert, ein einheitliches Ladekabel mit USB-C würde Innovation verhindern. Jetzt haben auch iPhones eine Ladebuchse für USB-C.

Natürlich versuchen die Konzerne, den Rahmen abzustecken und die EU-Kommission zu Eingeständnissen bringen.

Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln fpr KI aufgeschrieben
Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln für KI aufgeschrieben

Hat die EU zu strenge Regeln?

Stellt sich doch die wichtigste Frage überhaupt: Sind die Regeln in Europa zu streng und verhindern Innovation oder schützen sie die Menschen?

Das zu beantworten, ist wirklich nicht leicht.

Der bekannte Digital-Publizist Sascha Lobo hat in seiner aktuellen Spiegel-Kolumne geschrieben: „Europa führt einen Kampf gegen den Fortschritt“.

Aus Sicht der Konzerne ist das sicher so. Lobo schreibt auch, es gäbe „in Teilen der EU-Politik, der Medienlandschaft und der Öffentlichkeit überraschend häufig eine strukturell anti-fortschrittliche Haltung: eine Ideologie der Tech-Verachtung.“

Ganz so weit würde ich nicht gehen. Aber die Argumente sind wichtig, um sich zu fragen, ob alle Regeln wirklich sinnvoll sind und den Menschen helfen.

In den USA haben wir die fortschrittlichste KI der Welt, in Asien die effizienteste (weil es da gar keine Regeln gibt, die Menschen schützen) – und in Europa die regulierteste. Ist das hilfreich?

Wir alle ärgern uns über Überregulierung beim Datenschutz: Die Konzerne spionieren uns immer noch aus. Ziel verfehlt. Aber beim Arzt müssen wir Formulare unterschreiben, dass der Arzt uns anschreiben darf – und im Kindergarten bekommen die Betreuerinnen Stressherpes, ob sie eine Whatsapp-Gruppe einrichten dürfen.

Aus Europa werden nicht die Speerspitzen der KI kommen (können). Aus vielen Gründen. Aber doch viele interessante Geschäftsmodelle und Ideen rund um die großen Ökosysteme. Wenn die in Europa nicht mehr eingesetzt werden können, ist niemandem geholfen.

Manchmal ist weniger mehr. Und trennschärfer formuliert.

Meta AI soll mit Postings von Nutzer trainiert werden

Meta AI soll mit Postings von Nutzer trainiert werden

Mark Zuckerbergs Meta-Konzern, zu dem bekanntlich Facebook und Instagram gehören (sowie WhatsApp und Threads), will seine KI-Modelle künftig mit Beiträgen deutscher Nutzer trainieren. Wer das nicht möchte, muss widersprechen.

Auch Meta entwickelt Künstliche Intelligenz. Das KI-Modell Llama ist sogar sehr gut und OpenSource zu haben.

Meta AI soll eine Art ChatGPT werden

Jetzt entwickelt der Konzern an der Meta AI, eine Forschungsinitiative und Abteilung von Meta Platforms (ehemals Facebook), die sich auf die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) konzentriert.

Das Ziel von Meta AI ist es, durch fortschrittliche Forschung und Technologie innovative Lösungen zu schaffen, die das Verständnis und die Interaktion mit der digitalen Welt verbessern.

Meta AI arbeitet an einer Vielzahl von Projekten, die von natürlicher Sprachverarbeitung und Computer Vision bis hin zu maschinellem Lernen und Robotics reichen. Dabei werden sowohl Grundlagenforschung als auch anwendungsbezogene Entwicklungen vorangetrieben.

Ein zentrales Anliegen von Meta AI ist es, KI-Systeme zu entwickeln, die sicher, fair und nützlich für die Gesellschaft sind. Hierzu gehört auch die Erforschung ethischer und sozialer Aspekte der KI, um sicherzustellen, dass die Technologien verantwortungsvoll eingesetzt werden.

Meta AI veröffentlicht regelmäßig Forschungsergebnisse und arbeitet oft mit akademischen Institutionen und anderen Industriepartnern zusammen, um den Fortschritt in der KI-Forschung zu fördern und den Wissensaustausch zu unterstützen.

Durch diese Bemühungen trägt Meta AI dazu bei, die Möglichkeiten der Künstlichen Intelligenz weiter auszubauen und deren Nutzen für die Menschen zu maximieren.

Die Funktion zum Widerspruch ist gut versteckt
Die Funktion zum Widerspruch ist gut versteckt

Training für Meta AI steht bevor

Aber auch Künstliche Intelligenz (KI) muss zur Schule gehen. In der KI-Welt wird das „Training“ genannt: Chatbots lernen wie man spricht und schreibt, indem sie sich möglichst viele Texte anschauen.

Bildgenerierende KIs lernen, indem sie sich möglichst viele Bilder und Fotos anschauen. Und prinzipiell gilt: Je mehr valide Daten zum Training vorliegen, desto besser.

Der Meta-Konzern entwickelt fleißig an einer (weiteren) „Meta AI“, die Texte und Bilder erzeugen können soll. Die soll natürlich auch gut Deutsch können. Das geht nicht, ohne sich möglichst viele Texte und Formulierungen von Menschen angeschaut zu haben. Zum Beispiel Postings auf Facebook oder Instagram. Da gibt es jede Menge Input.

Meta will mit Inhalten von Postings die KI trainieren

Genau hier entsteht Widerstand. Meta kündigt seit einigen Tagen – quasi im Kleingedruckten auf Instagram und Facebook – genau das an, dass KI-Modelle nun auch mit den Postings deutscher Nutzer trainiert werden – und erläutert das auch in einem Informationstext auf der Plattform.

Zum Training der KI will Meta nach eigenen Angaben eine Kombination verschiedener Quellen nutzen, darunter Inhalte auf Facebook, Instagram und bislang weniger bekannt Netzwerk Threads. Von der KI gelesen werden Beiträge, Fotos und deren Bildunterschriften, so der Infotext.

Bei einem KI-Training werden keine direkten personenbezogenen Daten gespeichert. Es ist jedoch nicht völlig auszuschließen, dass sich nach einem Training Spuren in der KI finden, die Rückschlüsse auf eine Person zulassen. Während das die einen unbedingt wollen, um auch in KI gefunden zu werden, können andere darauf verzichten.

Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen
Das Kleingedruckte: Wer der Nutzung seiner Daten widersprechen möchte, muss ein Formular ausfüllen

Privatnachrichten ausgeschlossen

Immerhin: „Wir trainieren unsere KIs nicht mit den Inhalten von Privatnachrichten, die du mit Familienmitgliedern oder Freunden austauschst.“ Private Chats sind also ausgeschlossen. Da die Kommunikation bei WhatsApp und mittlerweile auch beim Facebook Messenger sicher Ende zu Ende verschlüsselt erfolgt, wäre das ohnehin nicht möglich.

Damit das KI-Training in Europa möglich wird, sollen die Datenschutzrichtlinien entsprechend angepasst werden. Die strengen Datenschutzregeln, auch und insbesondere der neue „AI Act“, sehen das vor. Die neuen Regeln sollen am 26. Juni 2024 in Kraft treten.

Wer widersprechen will, muss ein Formular ausfüllen

Neue Regeln gelten aber nur, wenn die User nicht widersprechen. Wer dem Unternehmen Meta oder der rasant wachsenden KI-Technologie generell misstraut (denn niemand kann wissen, ob die von Meta trainierten Modelle nicht auch OpenSource verbreitet werden), hat nun Gelegenheit, der Nutzung seiner eigenen Postings und Beiträge für das KI-Training zu widersprechen.

Allerdings ist das umständlicher als es sein müsste. Anstatt einen simplen Button zum Akzeptieren oder Ablehnen anzubieten, ist es komplizierter. Die Nutzer müssen nach Ansicht von Meta nicht eindeutig zustimmen. Der Konzern beruft sich grundsätzlich auf die Rechtsgrundlage des „berechtigten Interesses“.

Die Folge: Wer nichts unternimmt, stimmt zu, Allerdings haben Nutzer ein Recht auf Widerspruch, von dem sie bis zum Stichtag Gebrauch machen müssten.

So klappt das mit dem Widerspruch

Unter Facebook steht ein Web-Formular zum Widerspruch zur Verfügung. In Facebook selbst ist der Link unscheinbar unter dem Begriff „Widerspruchsrecht“ verlinkt.

  1. Dazu am PC auf das Profilbild oben rechts klicken, am Smartphone auf die drei Striche (Hamburger-Menü) rechts unten tippen.
  2. Danach die Option „Einstellungen und Privatsphäre“ ansteuern und dort die „Einstellungen“.
  3. Ganz unten schließlich die „Datenschutzrichtlinie“ öffnen und im oberen Informationstext auf „Widerspruchsrecht“ klicken oder tippen.

Nutzer müssen ihre Entscheidung begründen

Unter Instagram finde sich dasselbe Formular unter diesem Link. Auch hier gibt es aber auch einen Weg über die Plattform:

  1. Zunächst die eigene Profilseite über das Profilbild aufrufen
  2. Danach am Desktop auf das Zahnrad klicken, am Smartphone auf die drei Stiche oben rechts tippen
  3. Anschließend am PC die „Einstellungen und Privatsphäre“ ansteuern und anschließend unten auf „Datenrichtlinie“ klicken; Smartphone-Nutzer scrollen runter, tippen auf „Info“ und zuletzt auf „Datenschutzrichtlinie“
  4. Nötigenfalls im Informationstext auf die Option „Widerspruchsrecht“ klicken oder tippen.

Das Web-Formular ist selbsterklärend. Allerdings muss der Wohnort angegeben werden (wegen der Gültigkeit der Verordnung), ebenso die E-Mail-Adresse des Meta-Kontos sowie eine schriftliche Erläuterung, warum und wie sich die Verarbeitung der eigenen Daten für das Training der Meta-KI auf die eigene Person auswirken könnte.

Die Begründung muss nicht ausführlich sein. Es reicht aufzuschreiben, dass man es nicht möchte.

Die Verbraucherzentrale schlägt folgende Begründungen vor:

  • „Ich habe das Urheberrecht an meinen geposteten Daten und erteile kein Nutzungsrecht für KI-Anwendungen.“
  • „Ich habe Angst davor, dass meine einmal für die KI genutzten Daten nicht mehr ordnungsgemäß gelöscht werden können, weil sie in das KI-Modell untrennbar eingegangen sind.“
  • „Ich habe schon einmal negative Erfahrungen mit dem Missbrauch meiner Daten gemacht und möchte daher meine Daten grundsätzlich nicht für KI-Anwendungen zur Verfügung stellen.“
Desinformation im Netz: KI soll helfen und ist auch teilweise ein Problem

Desinformation im Netz: KI soll helfen und ist auch teilweise ein Problem

OpenAI hat angekündigt, ein System zur Erkennung von mit KI erzeugten Inhalten zu bauen. Und die EU untersucht offiziell, ob Meta genug gegen Desinformation unternimmt.

Super-Wahljahr und Social Media

Dieses Jahr ist ein Super-Wahljahr. Es ist Europawahl, aber auch den USA finden Wahlen statt und in einiges Bundesländern bei uns. Da kommt es ganz besonders darauf an, dass die Bürger, die Menschen gut und vor allem richtig informiert werden.

Doch das Gegenteil ist der Fall. In den sozialen Netzwerken kursieren so viele Falschnachrichten wie noch nie. Viele mit der Absicht, Stimmung zu machen – vor allem gegen Europa. Die EU-Kommission hat deswegen jetzt ein Verfahren gegen den Meta-Konzern eröffnet.

Wegen der Inhalte. Und dann ist da auch noch KI, die es leichter macht denn je, Fake-News zu erstellen.

Ein schwieriger Fall.

ki detektor 1
ki detektor 1

EU-Kommission hat Verfahren gegen Meta-Konzern eröffnet

Die EU-Kommission hat in diesem Zusammenhang vor kurzem ein Verfahren gegen Meta eröffnet, den Mutterkonzern von Facebook und Instagram.

Die EU-Kommission will prüfen, ob sich das US-Unternehmen an europäische Regeln gehalten hat. Ob Meta die Verbreitung von irreführender Werbung im politischen Umfeld und vor allem Desinformationskampagnen in der EU ausreichend und schnell genug bekämpft.

Seitdem der Digital Services Act (DSA) ist, gibt es klare Regeln dafür – und auch rigide Strafen, wenn sich ein Unternehmen nicht an diese Regeln hält.

Weiterer Punkt: Es wird geprüft, ob es wirklich ausreichende und auch ausreichend einfache Möglichkeiten auf den Plattformen gibt, damit sich User über einzelne Beiträge oder wiederholt Fake und Desinformation verbreitende Konten beschweren können. Beides verstieße eindeutig gegen den Digital Services Act.

Eine wichtige Untersuchung, denn wir wissen alle, dass auf Facebook, Instagram und TikTok jede Menge Desinformation kursiert; vor allem solche, die den gesellschaftlichen Frieden stören und die Wahlen beeinflussen soll.

Was tun gegen Desinformation?

Der Meta-Konzern unternimmt bislang (zu) wenig. Doch aufgrund der zunehmend strengen Richtlinien in Europa kommt einiges in Bewegung. Metas Ingenieure zum Beispiel arbeiten daran, mit Hilfe von KI erstellte fotorealistische Aufnahmen – und nur hier besteht ein Risiko der Verwirrung oder Täuschung – mit geeigneten technischen Maßnahmen, unter anderem mit KI, automatisch zu erkennen und zu kennzeichnen.

Obwohl Deepfakes heute oft verblüffend echt aussehen, ist das oft gar nicht so schwierig, wie es sich anhört. Viele KI-Systeme, die Fotos erzeugen, markieren die erstellten Bilder (unsichtbar) schon jetzt automatisch.

Das machen KIs wie Midjourney, Dall-E3, Artbreeder, Dream und viele andere. Sie kennzeichnen die erzeugten Bilder sowohl durch entsprechende Angaben in den Metadaten der Bilder als auch durch unsichtbare Wasserzeichen.

OpenAI hat diese Maßnahme erst Mitte Februar eingeführt. Sie sollen ab Mai – also jetzt – in Facebook eine Kennzeichnung „Made with AI“ erhalten; später auch auf Instagram. Noch ist das nicht am Start.

Verantwortung der Konzerne

Die großen Anbieter von KI haben da durchaus Verantwortung.

Insbesondere OpenAI unternimmt einiges. OpenAI hat bereits vor Monaten eingeführt, dass mit Dall-E3 erstellte Bilder über eine Kennzeichnung verfügt. Bei Midjourney ist es genauso.

Aber das reicht natürlich nicht. Denn Menschen, die täuschen wollen, die entfernen solche Kennzeichnungen natürlich.

Deshalb arbeitet OpenAI aktuell an einem System, am Ende ebenfalls KI, das mit KI generierte Inhalte erkennen kann.

Eine Art KI-Detektor. Dieses System befindet sich allerdings noch in der Testphase. Aktuell können Wissenschaftler damit experimentieren. OpenAI will noch etwas Feedback, damit das System gut funktioniert.

Mit einem solchen Detektor könnten dann Social-Media-Netzwerke arbeiten, aber auch wir alle, wenn wir bei der Betrachtung eines Bilds oder Videos nicht sicher sind ob echt oder nicht.

Das lässt sich nur schwer in den Griff bekommen

Die automatische Kennzeichnung der durch KI erzeugten Inhalte ist ein sinnvoller Schritt; allerdings kein „Game Changer“.

Systeme, die mit KI generierte Inhalte schnell und zuverlässig erkenne können, ist eine gute Idee. Das endet am Ende aber vermutlich bei einem Katz-und-Maus-Spiel: Wer erkennt besser, wer versteckt besser.

Das eigentliche Problem ist die schiere Masse der gezielten Desinformation und Manipulation. Es gibt zu wenig Abwehr solcher Inhalte. Das nutzen vor allem russische Akteure aus.

Soziale Netzwerke sind heute die Öffentlichkeit. Es wäre früher undenkbar gewesen, solche Propaganda in die Zeitungen oder ins Radio zu bekommen. Doch über Social Media zu manipulieren ist kinderleicht und extrem günstig. Das muss aufhören.

Es geht also nicht, ohne den Menschen die nötigen Fähigkeiten zu vermitteln. Jeder Wähler muss wissen, dass manipuliert wird – und wie.

EU hat Verfahren gegen Meta eröffnet

EU hat Verfahren gegen Meta eröffnet

Die EU hat ein offizielles Verfahren gegen Meta (Facebook, Whatsapp) eröffnet. Stein des Stoßes: Verdacht auf Desinformation und Wahlmanipulation.

Dieses Jahr ist Super-Wahljahr: Nicht nur Europawahl, sondern auch
Landtagswahlen in Thüringen, Brandenburg und Sachsen.

Da kommt es eigentlich ganz besonders darauf an, dass die Bürger, die Menschen gut und vor allem richtig informiert werden. Doch das Gegenteil ist der Fall. In Sozialen Netzwerken kursieren so viele Falschnachrichten wie noch nie.

Viele mit der Absicht, Stimmung zu machen – vor allem gegen Europa. Die großen Plattformen wie Google oder Meta können sich da nicht mehr einfach so aus der Verantwortung stehlen.

Vor genau 10 Jahren h at sich der Facebook Konzern den Messenger WhatsApp einverleibt
Vor genau 10 Jahren h at sich der Facebook Konzern den Messenger WhatsApp einverleibt

Digital Services Act

Die EU-Kommission hat ein Verfahren gegen Meta eröffnet, den Mutterkonzern von Facebook und Instagram.

Die EU-Kommission will unter anderem prüfen, ob sich das US-Unternehmen an europäische Regeln gehalten hat im Umgang mit irreführender Werbung und Desinformationskampagnen auf den Plattformen Facebook und Instagram.

Seitdem der Digital Services Act (DSA) da ist, gibt es klare Regeln dafür – und auch rigide Strafen, wenn sich ein Unternehmen nicht an diese Regeln hält.

Bei den mutmaßlichen Verstößen geht es unter anderem darum, ob Meta die Verbreitung von irreführender Werbung im politischen Umfeld und vor allem Desinformationskampagnen in der EU ausreichend bekämpft. Daran gibt es begründete Zweifel, denn solche Kampagnen gibt es zuhauf auf den Plattformen.

Weiterer Punkt: Es wird geprüft, ob es wirklich ausreichende und auch ausreichend einfache Möglichkeiten auf den Plattformen gibt, damit sich User über einzelne Beiträge oder wiederholt Fake-Nachrichten und Desinformationen verbreitende Konten beschweren können. Beides verstieße eindeutig gegen den Digital Services Act.

Apple wurde von der EU zu einem Bußgeld in Höhe von 1,8 Mrd. EUR verdonnert. Hintergrund sind Wettbewerbsrecht, der App-Store und die Provisionen bei Zahlungen.
Apple wurde von der EU zu einem Bußgeld in Höhe von 1,8 Mrd. EUR verdonnert. Hintergrund sind Wettbewerbsrecht, der App-Store und die Provisionen bei Zahlungen.

Sind das also schon konkrete Vorwürfe?

Nein. Die Kommission betont, dass sie mit der Einleitung des Verfahrens lediglich einen Verdacht prüft, und dass die vorläufige Einschätzung der Behörde noch kein endgültiges Untersuchungsergebnis darstelle.

Weiterer Aspekt: Es ist mitunter schwierig, die genaue Lage zu untersuchen, denn der Meta-Konzern gewährt Forschern nicht genügend Daten und Informationen. Aber auch das verlangt der Digital Services Act  ausdrücklich von einer Plattform dieser Größe. Meta muss da also nachliefern.

Wahlmanipulation auf Facebook und Instagram

Aber wie genau muss man sich denn Wahlmanipulation auf Social Media Plattformen vorstellen – es können ja nicht virtuelle Wahlplakate gemeint sein?

Es geht darum, dass auf den Plattformen massenweise Stimmung gemacht wird. Mit Falschinformationen, mit zugespitzten Behauptungen, aber auch und vor allem mit persönlicher Diffamierung von Politikern und Menschen aus deren Umfeld.

Und dabei geht es nicht um sachliche Kritik, sondern um überzogene oder unwahre Behauptungen, die aber oft leicht verfangen und das Meinungsbild der Bevölkerung verändern sollen – und es auch können.

Diesen Sommer wird das Europaparlament neu gewählt. Viele in der EU gehen davon aus, dass Russland versucht, Einfluss auf die Wahlen auszuüben. Französische Experten haben gerade erst ein russisches Desinformations-Netzwerk aufgedeckt, das kreml-freundliche Propaganda verbreitet hat.

All das läuft vor allem über die sogenannten „Sozialen Netzwerke“, denn das ist einfach und günstig.

Meta könnte bei Facebook und Instagram für werbefreie Netzwerke künftig Abogebühren verlangen
Meta könnte bei Facebook und Instagram für werbefreie Netzwerke künftig Abogebühren verlangen

Facebook markiert künftig KI-Fotos

Wir sprechen hier in regelmäßig über KI und Deepfakes, die auch oft in diesem Zusammenhang benutzt werden. Die werden immer besser und es kursiert davon immer mehr im Internet.

Was tut ein Konzern wie Meta dagegen?

Bislang wenig bis gar nichts. Doch aufgrund der zunehmend strengen Richtlinien in Europa kommt einiges in Bewegung. Metas Ingenieure zum Beispiel arbeiten daran, mit Hilfe von KI erstellte fotorealistische Aufnahmen – und nur hier besteht ein Risiko der Verwirrung oder Täuschung – mit geeigneten technischen Maßnahmen (unter anderem mit KI) automatisch zu erkennen und zu kennzeichnen.

Obwohl Deepfakes heute oft verblüffend echt aussehen, ist das gar nicht so schwierig, wie es sich anhört. Viele KI-Systeme, die Fotos erzeugen, markieren die erstellten Bilder (unsichtbar) schon jetzt automatisch. Das machen KIs wie Midjourney, Dall-E3, Artbreeder, Dream und viele andere.

Sie kennzeichnen die erzeugten Bilder sowohl durch entsprechende Angaben in den Metadaten der Bilder als auch durch unsichtbare Wasserzeichen. OpenAI hat diese Maßnahme erst Mitte Februar eingeführt. Sie sollen ab Mai – also jetzt – in Facebook eine Kennzeichnung „Made with AI“ erhalten. ; später auch auf Instagram. Noch ist das nicht am Start.

Langt nicht

Die automatische Kennzeichnung der KI erzeugte Inhalte ist ein sinnvoller Schritt, allerdings sicher kein „Game Changer“. Das Problem ist ja die schiere Masse der gezielten Desinformation und Manipukation. Es gibt zu wenig Abwehr solcher Inhalte. Das nutzen russische Akteure aus.

Soziale Netzwerke sind heute die Öffentlichkeit. Es wäre früher undenkbar gewesen, solche Propaganda in die Zeitungen oder ins Radio zu bekommen. Doch über Social Media zu manipulieren ist kinderleicht und extrem günstig. Das muss aufhören.

Doch die EU scheint es ernst zu meinen: Die Plattformbetreiber müssen nachbessern. Sie müssen schneller reagieren, entschlossener durchgreifen, der Forschung mehr Daten liefern, sonst drohen Bußgelder. Die EU hat zuletzt mehrmals gezeigt, etwa bei Apple und Tiktok, das sie dazu willens und in der Lage ist.

Allerdings kommt das alles sehr spät. Schon im Juni sind Europawahlen.


Minderjährige: Instagram will künftig Nacktbilder verbergen

Minderjährige: Instagram will künftig Nacktbilder verbergen

Der Druck aus der US-Politik nimmt zu, dass die großen Plattformen deutlich mehr für den Jugendschutz tun. Der Meta-Konzern hat jetzt Verbesserungen bei der Verbreitung von Nacktbildern angekündigt. Die sollen künftig standardmäßig geblurt sein.

Instagram hat sich in den letzten Jahren zu einer der beliebtesten Social-Media-Plattformen entwickelt, insbesondere bei Jugendlichen und jungen Erwachsenen. Doch die Plattform birgt auch einige Risiken, vor allem für die jüngeren Nutzer. Die Diskussion um angemessenen Jugendschutz auf Instagram hat daher stark an Fahrt aufgenommen.

Anzeichen für Cybergrooming
Anzeichen für Cybergrooming

Bislang unzureichender Jugendschutz

Eine der Hauptsorgen ist der potenzielle Zugang zu unangemessenen oder schädlichen Inhalten wie Gewalt, Mobbing, übermäßiger Sexualisierung oder der Förderung ungesunder Körperbilder. Jugendliche befinden sich in einer sensiblen Phase der Entwicklung und sind besonders anfällig für negative Einflüsse.

Die Probleme von Sextortion, Sexting und Cybergrooming sind bei Instagram besonders virulent.

Sextortion bezeichnet die Erpressung mit intimen Bildern oder Videos, oft nach dem ungewollten Teilen selbiger durch das Opfer.

Beim Sexting, dem Austausch anzüglicher Nachrichten und Fotos, besteht die Gefahr der Weiterverbreitung ohne Einwilligung.

Cybergrooming meint die gezielte Kontaktaufnahme durch Erwachsene zu Minderjährigen mit dem Ziel der sexuellen Ausbeutung.

Instagram ist hier ein bevorzugter Tummelplatz für Täter. All diese Praktiken können für Jugendliche auf der Plattform verheerende psychische und rechtliche Folgen haben. Präventionsmaßnahmen zur Sensibilisierung und Aufklärung der Gefahren sind daher unerlässlich – wurden aber bislang sträflich vernachlässigt.

Wenn Kids ein Smartphone nutzen, haben Eltern jede Kontrolle verloren
Wenn Kids ein Smartphone nutzen, haben Eltern jede Kontrolle verloren

Meta kündigt Nacktbild-Filter an

Der Meta-Konzern, der Instagram betreibt, hat sich als Maßnahme – nicht zuletzt aufgrund zunehmenden Drucks aus der US-Politik – nun dazu entschlossen, einige zusätzliche Sicherheitsfunktionen für Minderjährige einzuführen und diese in einem offiziellen Blogpost angekündigt.

Geplant ist, dass beim Senden und Empfangen von Nacktbildern künftig Warnhinweise erscheinen sollen. Außerdem – und das ist viel wichtiger – will Instagram Nacktbilder in Direktnachrichten bei Minderjährigen automatisch durch einen Unschärfefilter („Blur“) unkenntlich machen.

Unschärfefilter macht Nacktbilder unkenntlich

Empfänger solcher „Nachrichten“ sollen künftig die Wahl haben, ob sie ein solches Bild sehen möchten oder nicht, erklärt die zuständige Abteilung des Meta-Konzerns in Frankreich, die im Konzern für den Kinderschutz zuständig ist. Demnach sollen junge Menschen mit den neuen Maßnahmen vor „ungewolltem und potenziell gefährlichem Kontakten“ bewahrt werden.

Die Maßnahmen gegen unerwünschte Nacktbilder sollen bereits vor dem Versenden greifen. Falls jemand mit aktivierten Nacktbildschutz plant, ein solches Foto zu versenden, erscheint bereits ein Warnhinweis. Erst nach Bestätigung wird das Bild tatsächlich verschickt. Beim Empfänger erscheint das Bild dann durch Filter unscharf. Auf diese Weise soll niemand ungewollt mit solchen Aufnahmen konfrontiert werden.

Die Nacktbilder verschwinden nicht etwa total, sondern werden nur vorerst verwaschen dargestellt
Die Nacktbilder verschwinden nicht etwa total, sondern werden nur vorerst verwaschen dargestellt

Eine Hürde, keine Blockade

Die Empfänger können das Bild nach ausdrücklicher Bestätigung anschauen oder den sendenden Account direkt und konsequent blockieren. Außerdem erscheint ein ebenfalls ein Warnhinweis, sollte jemand versuchen, ein empfangenes Nacktbild weiterzuleiten.

Das alles ist eine Hürde, keine Blockade.

Im Vordergrund der Maßnahmen stehe der bessere Schutz vor sogenannter „Sextortion“, erklärt Meta. Hier bringen die Täter die zumeist minderjährigen Opfer durch Vorspiegelung falscher Tatsachen und psychologische Tricks dazu, Nacktbilder oder sogar -videos von sich zu erstellen und ihnen über die Plattform zu senden. Ist das erst mal geschehen, drohen die Täter häufig mit der Veröffentlichung des Materials.

Kontrolle erfolgt auf den Geräten selbst

Da Instagram seit Mai 2023 die direkte Kommunikation auf der Plattform durch eine Ende-zu-Ende-Verschlüsselung absichert, kann Meta die Inhalte nicht sehen und auch nicht überprüfen. Deshalb erfolgt die Überprüfung auf den Geräten von Absender und Empfänger. Die nötige Analyse ob nackt oder nicht erfolgt auf den Geräten selbst durch eine KI-Funktion.

Die neue Schutzfunktion soll zunächst in mehreren Ländern in Mittel- und Lateinamerika getestet werden und in den kommenden Monaten weltweit zum Einsatz kommen.

Konzern steht unter Druck

Der Meta-Konzern steht unter Druck: Whistleblowerin Frances Haugen, die früher bei Facebook gearbeitet hat, wirft dem Konzern vor, bei weitem nicht genug für Jugendschutz getan zu haben.

Facebook priorisiere Profit über das Wohlergehen der Jugendlichen. Interne Studien hätten gezeigt, dass Instagram der mentalen Gesundheit von Teenagern schade, das Unternehmen habe aber trotzdem nicht ausreichend reagiert. Seitdem hat insbesondere die US-Politik den Druck auf den Konzern verstärkt.

Bereits im Januar hatte Meta einen verstärkten Jugendschutz auf Instagram angekündigt. Jugendliche müssen seitdem die Zustimmung der Eltern einholen, um ein Konto von privat auf öffentlich zu setzen.