Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Digitalkonzerne verweigern sich: Ist die EU überreguliert?

Apple und Meta wollen ihre angekündigten KI-Modelle in der EU nicht ausrollen – angeblich seien die juristischen Risiken aufgrund der Regeln in der EU zu hoch. Begründete Sorge oder Machtspielchen?

KI, KI, KI – es gibt in der Digitalbranche kaum noch ein anderes Thema. Das liegt daran, dass sich die Entwicklung von KI seit der Einführung von ChatGPT in schier atemberaubendem Tempo weiter entwickelt.

Die großen KIs werden in den USA entwickelt, nicht in Europa. Doch Europa hat als erster Kontinent eine Regulierung, den „AI Act“, der das Tempo der Entwicklung bremst.

Mittlerweile sagen erste Konzerne wie Apple oder Meta, dass sie ihre neuesten KI-Lösungen gar nicht erst in Europa anbieten wollen. Aus rechtlichen Gründen. Kann das gewollt gewesen sein und vor allem, ist das vernünftig?

Der Digital Markets Act soll die Macht der großen Konzerne beschneiden
Der Digital Markets Act soll die Macht der großen Konzerne beschneiden

Apple und Meta wollen ihre KI nicht in die EU bringen

Apple und Meta haben jüngst erst neue KI-Modelle angekündigt, die Nutzern das Leben erleichtern sollen. Wieso kommen die jetzt zwar in USA, aber nicht in der EU?

Beide Konzerne argumentieren, dass es für sie entweder rechtlich viel zu unsicher wäre, mit den Lösungen auf den Markt zu kommen – im Fall von Apple übrigens nicht nur eine KI, sondern auch eine Technologie, die es erlaubt, auf einem Mac das iPhone fernzusteuern. Oder wenn man sich an die Regulierungen halte, befürchte man Risiken für Datenschutz und Privatsphäre.

Damit kritisieren die Konzerne weniger den „AI Act“, der KI-Anwendungen in Europa in Risikoklassen unterteilt und riskante KIs reguliert, sondern vielmehr den „Digital Markets Act“, der seit Mai 2023 vollständig gültig ist.

Der DMA verbietet es den großen Gatekeepern, eigene Produkte zu bevorzugen. Wenn also in Apples Betriebssystem ausschließlich die eigenen KI-Modelle integriert sind, könnte das schmerzhafte Bußgelder nach sich ziehen.

Aber auch der AI Act spielt eine Rolle und die hohen Datenschutzstandards, weil sich noch nicht immer genau sagen lässt, welche Daten von KI verarbeitet werden.

Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten
Apple Intelligence: Apple lässt seine KI zum großen Teil in den Geräten arbeiten

KI sollte für Facebook und Instagram trainiert werden

Viele können sich bestimmt erinnern: Vor ein paar Wochen haben Facebook und Instagram damit begonnen, die User zu fragen, ob ihre Daten für eine kommende Meta AI für das Training verwendet werden dürfen.

Das scheint erstmal vom Tisch. In den USA war es nicht erforderlich, die User vorher zu fragen.

Hierzulande ist noch nicht ganz klar, mit welchen Daten eine KI trainiert werden darf. Aber sehr wahrscheinlich ist eine solche Zustimmung tatsächlich erforderlich.

Das macht die Sache aber natürlich sehr kompliziert für Meta: Die müssten genau unterscheiden, welche Daten ins Training fließen dürfen und welche nicht. Wenn Du dagegen bist und ich kein Problem damit habe, was ist mit einem Kommentar von Dir auf ein Posting von mir? Wirklich schwierig.

Letztlich hat Meta argumentiert: Am Ende könnten wir den Nutzern in Europa nur eine zweitklassige KI anbieten, da wir sie nicht ausreichend trainieren können.

Auch das Argument ist nicht von der Hand zu weisen: Jede KI ist umso besser, je besser sie trainiert wurde. Nur: Irgendwo müssen die Daten ja herkommen.

Wenn alle super KIs wollen, aber wenn es geht nichts dafür bezahlen, aber bloß nicht die eigenen Postings analysiert werden dürfen – das geht unterm Strich einfach nicht.

Meta AI soll eine Alternative zu ChatGPT werden
Meta AI soll eine Alternative zu ChatGPT werden

Begründete Zurückhaltung oder Strategie?

Sind die öffentlichen Beschwerden von Apple, Meta und einigen anderen großen Konzernen und ihre Zurückhaltung, neue Produkte und Dienste in der EU einzuführen, also begründet – oder nur Strategie, damit sie von der EU-Kommission einen Persilschein bekommen?

Ich würde sagen: Beides!!!

Die möglichen Strafen bei Verstößen gegen den Digital Markets Act oder den AI Act sind mittlerweile enorm. Da wollen auch große Konzerne zu große Risiken vermeiden. Doch natürlich pokern die Konzerne auch ein wenig. Apple zum Beispiel hat jahrelang argumentiert, ein einheitliches Ladekabel mit USB-C würde Innovation verhindern. Jetzt haben auch iPhones eine Ladebuchse für USB-C.

Natürlich versuchen die Konzerne, den Rahmen abzustecken und die EU-Kommission zu Eingeständnissen bringen.

Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln fpr KI aufgeschrieben
Der AI Act ist beschlossene Sache: Die EU hat einige relevante Regeln für KI aufgeschrieben

Hat die EU zu strenge Regeln?

Stellt sich doch die wichtigste Frage überhaupt: Sind die Regeln in Europa zu streng und verhindern Innovation oder schützen sie die Menschen?

Das zu beantworten, ist wirklich nicht leicht.

Der bekannte Digital-Publizist Sascha Lobo hat in seiner aktuellen Spiegel-Kolumne geschrieben: „Europa führt einen Kampf gegen den Fortschritt“.

Aus Sicht der Konzerne ist das sicher so. Lobo schreibt auch, es gäbe „in Teilen der EU-Politik, der Medienlandschaft und der Öffentlichkeit überraschend häufig eine strukturell anti-fortschrittliche Haltung: eine Ideologie der Tech-Verachtung.“

Ganz so weit würde ich nicht gehen. Aber die Argumente sind wichtig, um sich zu fragen, ob alle Regeln wirklich sinnvoll sind und den Menschen helfen.

In den USA haben wir die fortschrittlichste KI der Welt, in Asien die effizienteste (weil es da gar keine Regeln gibt, die Menschen schützen) – und in Europa die regulierteste. Ist das hilfreich?

Wir alle ärgern uns über Überregulierung beim Datenschutz: Die Konzerne spionieren uns immer noch aus. Ziel verfehlt. Aber beim Arzt müssen wir Formulare unterschreiben, dass der Arzt uns anschreiben darf – und im Kindergarten bekommen die Betreuerinnen Stressherpes, ob sie eine Whatsapp-Gruppe einrichten dürfen.

Aus Europa werden nicht die Speerspitzen der KI kommen (können). Aus vielen Gründen. Aber doch viele interessante Geschäftsmodelle und Ideen rund um die großen Ökosysteme. Wenn die in Europa nicht mehr eingesetzt werden können, ist niemandem geholfen.

Manchmal ist weniger mehr. Und trennschärfer formuliert.

EU plant Chatkontrolle für Messenger: Das steckt dahinter

EU plant Chatkontrolle für Messenger: Das steckt dahinter

Die EU plant eine sogenannte Chatkontrolle: Bestimmte Inhalte sollen vor dem Versenden mit dem Messenger gecheckt werden. Ein äußerst umstrittenes Vorhaben.

Die Pläne der sogenannten Chatkontrolle sind äußerst umstritten. Viele Politiker in der EU und in den EU-Staaten, aber auch zahlreiche Experten und Bürgerrechtler warnen davor, die Pläne der EU-Kommission umzusetzen, da die Privatsphäre der Menschen bedroht sei. Die geplante Chatkontrolle würde praktisch alle Smartphone-Nutzer in der EU betreffen.

Nach monatelangem Streit in der EU liegt nun ein korrigierter Vorschlag aus Belgien vor, wie eine Chatkontrolle aussehen könnte, um zum einen die gewünschten Ziele zu erreichen und andererseits berechtigte Kritik zu berücksichtigen.

smart illegal

Worum geht es bei der geplanten Chatkontrolle?

Der Hauptgrund für die Einführung der geplanten Maßnahmen ist der Schutz von Kindern vor sexuellem Missbrauch und die Bekämpfung der Verbreitung von Kinderpornografie.

Der Ursprung für die Idee der geplanten Chatkontrolle in der EU lässt sich auf die wachsende Besorgnis über den Missbrauch verschlüsselter Kommunikationsdienste für kriminelle Aktivitäten zurückführen, insbesondere im Zusammenhang mit Kinderpornografie und sexuellem Missbrauch von Kindern.

In den letzten Jahren spielen Instant-Messaging-Dienste wie WhatsApp, Signal und Telegram eine immer größere Rolle in der Online-Kommunikation. Diese Dienste verwenden eine sehr zuverlässige und effektive Ende-zu-Ende-Verschlüsselung, um die Privatsphäre und Sicherheit ihrer Nutzer zu gewährleisten.

Dies bedeutet jedoch auch, dass Strafverfolgungsbehörden nicht auf die Inhalte der Nachrichten zugreifen können, selbst wenn sie einen rechtmäßigen Grund dafür haben.

eu control smartphone

Das steckt hinter dem Begriff „Going dark“

Dieses Problem wurde von der Europäischen Kommission (EU) als „going dark“ bezeichnet, d.h. dass die Strafverfolgungsbehörden zunehmend Schwierigkeiten haben, die Online-Aktivitäten von Kriminellen zu überwachen und zu verfolgen.

Insbesondere im Zusammenhang mit Kinderpornografie und sexuellem Missbrauch von Kindern hat die EU-Kommission festgestellt, dass die derzeitigen Maßnahmen nicht ausreichend sind, um das Problem in den Griff zu bekommen.

Im Juli 2020 veröffentlichte die EU-Kommission eine Strategie zur Bekämpfung sexuellen Missbrauchs von Kindern, in der sie vorschlug, dass Anbieter von Kommunikationsdiensten verpflichtet werden sollten, Maßnahmen zur Erkennung und Meldung von Kinderpornografie und anderen Formen des Missbrauchs zu ergreifen. Dieser Vorschlag schloss auch die Möglichkeit ein, dass die Anbieter verpflichtet werden könnten, ihre verschlüsselten Kommunikationskanäle nach verdächtigen Inhalten zu durchsuchen.

Im Mai 2021 legte die EU-Kommission einen Gesetzesvorschlag vor, der vorsieht, dass Anbieter von Kommunikationsdiensten verpflichtet werden, Technologien zur Erkennung von Kinderpornografie und anderen Formen des Missbrauchs einzusetzen. Dieser Vorschlag sieht auch vor, dass die Anbieter verpflichtet werden können, verdächtige Inhalte zu melden und gegebenenfalls den Zugang zu diesen Inhalten zu sperren.

Der Vorschlag der EU-Kommission hat jedoch auch Bedenken hinsichtlich des Datenschutzes und der Privatsphäre aufgeworfen. Kritiker argumentieren, dass die geplanten Chatkontrollen das Recht auf Privatsphäre und Datenschutz verletzen und potenziell missbraucht werden könnten.

Es gibt aber auch Bedenken hinsichtlich der Wirksamkeit der vorgeschlagenen Technologien zur Erkennung von verdächtigen Inhalten, da diese möglicherweise nicht in der Lage sind, zwischen legalen und illegalen Inhalten zu unterscheiden, was zu falsch positiven Ergebnissen führen könnte.

Die EU will den Messenger-Anbietern vorschreiben, illegale Inhalte zu melden

Was sind die technischen Aspekte?

Wer mit Chat-Anwendungen wie Whatsapp, Signal, Threema oder Telegram kommuniziert, kann sich bislang darauf verlassen: Niemand kann mitlesen. Die in modernen Chat-Apps verwendete Ende-zu-Ende-Verschlüsselung verhindert das zuverlässig. Selbst Betreiber der Apps wissen nicht, was geschrieben und ausgetauscht wird.

Doch diesen Schutz nutzen auch Kriminelle aus.

Deswegen sollen alle Messenger-Anbieter künftig eine Risikobewertung ihrer Dienste durchführen und in Kategorien wie „hoch“, „mittel“ und „niedrig“ einteilen.

Es gilt als gesichert, dass Dienste, die eine anonyme und verschlüsselte Kommunikation erlauben, nach den Plänen als „hoch“ riskant eingestuft werden. Dazu gehören alle gängigen Messenger wie Whatsapp, Signal, Threema oder Telegram.

Messenger-Dienste mit hohem Risiko sollen dann verpflichtet sein, die zu versendenden Inhalte der Nutzer – noch vor der Verschlüsselung – direkt auf den Geräten der Nutzer zu scannen und illegale Inhalte proaktiv an Behörden zu melden.

Vorteil dieses Verfahrens: Die Verschlüsselung selbst wird nicht direkt geschwächt. In früheren Versionen der angestrebten Regelung wurden Mechanismen vorgesehen, die Verschlüsselung auszuhebeln oder dass Messenger-Betreiber mit Strafverfolgungsbehörden kooperieren müssen. Diese Pläne wurden aber verworfen.

WhatsApp muss sich für andere Messenger öffnen (Interoperabilität)
Auch WhatsApp wäre betroffen

Wie soll die Chatkontrolle erfolgen?

Wenn die Pläne der Chatkontrolle umgesetzt werden, würde sich für Nutzer von Messenger-Apps einiges ändern. Die Apps müssten die Inhalte vor der Verschlüsselung und vor dem Absenden auf möglicherweise illegale Inhalte überprüfen. Und das auf den Geräten selbst, also auf den Smartphones der Nutzer. Ein Verfahren, das sich Client-Side-Scanning nennt.

Überprüft werden sollen ausschließlich Fotos und Videos. Texte und Audios wären von der geplanten Chatkontrolle nicht betroffen.

Der Vorgang ist allerdings aufwändig. Dazu müssten entweder digitale Fingerabdrücke, sogenannte Hashcodes (eine Art mathematische Quersumme aus den Pixeln eines Bildes) bereits bekannter pornografischer Inhalte auf allen Geräten der Nutzer gespeichert sein; oder es müsste vor jedem Sendevorgang in einem Messenger ein Abgleich mit Servern erfolgen, die den im Gerät erzeugten Hashcode (Fingerabdruck) überprüfen.

Bei diesem Verfahren würden nicht kriminelle Fotos selbst auf den Geräten der Nutzer landen und es würden auch nicht die Fotos zur Überprüfung an die Server der Messenger-Betreiber geschickt, sondern lediglich ein Hashcode. Eine Art digitaler Fingerabdruck. Anhand des Hashcodes lässt sich kein Foto rekonstruieren, es lässt sich lediglich feststellen, ob zwei Fotos identisch sind.

Allerdings sind auch „false positive“-Fälle möglich: In solchen Fällen kämen Menschen unter Verdacht, weil ihre Fotos möglicherweise nur aus mathematischer Sicht eine gewisse Ähnlichkeit zu bekannten kriminellen Fotos aufweisen. Sie würden dann den Behörden gemeldet und müssten sich erklären.

Was Kritiker befürchten

Kritiker argumentieren, das würde nicht nur die Privatsphäre schwächen, sondern stelle auch ein Sicherheitsrisiko dar. Denn es ist denkbar, dass Cyberbetrüger genau diesen Mechanismus ausnutzen, um Daten abzugreifen oder Smartphones zu Spionen umfunktionieren.

Außerdem drohe eine anlasslose Massenüberwachung, sagen Kritiker. Denn jeder stehe jederzeit unter dem potenziellen Verdacht – und zwar beim Absenden jeder einzelnen Nachricht, die Fotos oder Videos enthält – kriminelle Inhalte zu verteilen. Außerdem würde die Ende-zu-Ende-Verschlüsselung geschwächt oder sogar aufgehoben, da die Inhalte vor der Verschlüsselung gescannt werden müssen

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

KI-Gesetz: Wie die EU die Bürger vor zu gefährlicher KI schützen will

Die Mitgliedsstaaten der EU haben eine Regulierung von Künstlicher Intelligenz final zugestimmt. Spätestens in zwei Jahren gelten die Regeln verbindlich.

Künstliche Intelligenz (KI) ist das mit Abstand mächtigste Werkzeug, das die Menschheit jemals entwickelt hat. Noch ist nicht abzusehen, welche Möglichkeiten sich irgendwann ergeben – welche Chancen und Risiken die neue Technologie in Zukunft mit sich bringt.

Die EU-Staaten haben nun nach langer Zeit der Verhandlung ein „AI Act“ genanntes KI-Gesetz beschlossen, das bestimmten Einsatz von KI innerhalb der EU komplett verbietet.

Mit Gesichtserkennung lassen sich gute Dinge tun - aber es ist auch Missbrauch möglich
Mit Gesichtserkennung lassen sich gute Dinge tun – aber es ist auch Missbrauch möglich

Einteilung in Risikoklassen

Der AI Act der Europäischen Union ist ein bahnbrechender Gesetzesentwurf, der darauf abzielt, den Einsatz von Künstlicher Intelligenz (KI) umfassend zu regulieren.

Als weltweit erste Gesetzgebung dieser Art soll der AI Act einheitliche Regeln für die Entwicklung, den Vertrieb und die Nutzung von KI-Systemen in der EU schaffen. Ziel ist es, die Risiken von KI zu minimieren und gleichzeitig Innovation und Wettbewerbsfähigkeit zu fördern.

Der Entwurf sieht ein risikobasiertes Regelwerk vor, das KI-Systeme je nach ihrem Gefährdungspotenzial in vier Kategorien einteilt: von minimal bis unakzeptabel riskant.

Hochriskante Anwendungen, etwa in sensiblen Bereichen wie Gesundheit, Verkehr oder Strafverfolgung, sollen strengen Auflagen unterliegen. Dazu zählen Anforderungen an Datenqualität, Transparenz, menschliche Aufsicht und Cybersicherheit. Der AI Act könnte so weltweit Maßstäbe für einen verantwortungsvollen Umgang mit dieser Zukunftstechnologie setzen.

Mit dem Gesicht das Handy entsperren
Mit dem Gesicht das Handy entsperren oder mit KI erkennen lassen

Gesichtserkennung und Massenüberwachung per KI verboten

Bestimmte KI-Anwendungen, die gegen EU-Werte verstoßen, sollen vollständig verboten werden. So ist eine Massenüberwachung und auch eine massenhafte Gesichtserkennung im öffentlichen Raum ausdrücklich verboten, sowohl dem Staat wie Unternehmen.

Dabei gibt es allerdings Ausnahmen: Polizei und andere Sicherheitsbehörden sollen eine solche Gesichtserkennung im öffentlichen Raum im Einzelfall nutzen dürfen, um ganz bestimmte Straftaten wie Menschenhandel oder Terrorismus zu verhindern oder zu verfolgen. Bürgerrechtler stoßen sich an dieser Ausnahme.

Diese Einschränkungen erfolgen wohl begründet: In China kommt KI bereits zum Einsatz, um die Bevölkerung engmaschig zu überwachen.

Gesichtserkennung identifiziert Personen, die sich in der Öffentlichkeit nicht regelkonform verhalten – und werden mit „Strafpunkten“ im sogenannten „Social Scoring“ bedacht. Eine albtraumhafte Vorstellung, die durch das KI-Gesetz innerhalb der EU verhindert werden soll.

Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial
Auch KI kann diskriminieren: Nicht durch falsche Programmierung, sondern durch kompromittiertes Datenmaterial

Transparenzpflichten und Anpassungen

Aber auch KI-Systeme, die als besonders risikoreich gelten und in der kritischen Infrastrukture oder im Bildungs- und Gesundheitswesen zum Einsatz kommen, müssen künftig strenge Anforderungen erfüllen. KI-Systeme dürfen keine eigenständigen Entscheidungen fällen und müssen Transparenzpflichten erfüllen.

KI entwickelt sich derzeit rasant. Die Macher der KI-Gesetz sind sich darüber im Klaren, dass die Gesetze mit der Zeit immer wieder nachjustiert werden müssen, um Möglichkeiten nicht unnötig einzuschränken und mögliche neue Risiken einzudämmen. Denn niemand kann heute bereits absehen, welche Möglichkeiten KI in ein, zwei oder zehn Jahren bietet.

Vorteile für Verbraucher

Für Nutzer werden Auflagen und Einschränkungen durchaus spürbar werden. So müssen die Menschen über den Einsatz „hochriskanter“ KI-Systeme informiert werden. Außerdem muss gewährleistet bleiben, dass Menschen die Kontrolle behalten, etwa bei KI-gestützter Therapie in der Medizin.

KI-Systeme müssen außerdem so entwickelt sein, dass Risiken wie Fehler, Manipulationen oder Sicherheitslücken minimiert werden. Auch müssen durch KI erzeugte Inhalte gekennzeichnet werden. Facebook hat im Mai bereits damit begonnen, mit KI erzeugte fotorealistische Bilder mit dem Hinweis „Made with AI“ zu kennzeichnen.

Bitkom formuliert Kritik am KI-Gesetz

Der Branchenverband Bitkom kritisiert allerdings, das KI-Gesetz lasse wesentliche Fragen offen. Besonders problematisch sei, dass die eigentliche Regulierungsarbeit – also die Ausformulierung der Gesetze in Deutschland – erst jetzt erfolge. Es sei noch nicht klar, ob die KI-Industrie einen Schub erhalte oder jede Menge Hemmnisse.

In der Tat könnten zu strenge Regeln das Risiko bergen, dass in Europa keine oder weniger KI-Lösungen entwickelt werden. Denn Investoren müssten die Gewissheit haben, dass ungehindert geforscht und entwickelt werden kann – und neue KI-Lösungen getestet und eingesetzt werden können.

KI-Gesetz erst in zwei Jahren vollständig gültig

Das KI-Gesetz ist nun beschlossen. Nach der Bestätigung der EU-Länder werden die neuen KI-Regeln erst einmal im Amtsblatt veröffentlicht und treten 20 Tage später in Kraft. Zwei Jahre nach dem Inkrafttreten sollen sie dann in allen EU-Staaten gelten; jedes einzelne Land muss sie auch in Gesetzgebung umsetzen.

TikTok Lite ist der Albtraum für Eltern

TikTok Lite ist der Albtraum für Eltern

Es gibt nicht nur TikTok, sondern auch TikTok Lite – jedenfalls in einigen Ländern. Das Problem: Die App belohnt zu viel Videos schauen. Ein Suchtmittel?

TikTok als Phänomen zu bezeichnen, ist sicher keine Übertreibung: Unter Jugendlichen ist die Video-App aus China ein regelrechter Knaller.

Jeder Jugendliche kennt die App, egal wo. Weltweit 1,5 Milliarden regelmäßige Benutzer. In Europa sind es 100 Mio., allein in Deutschland 20 Mio. Doch nun gibt es plötzlich eine zweite Version von TikTok, TikTok Lite genannt – seit einigen Tagen auch in Frankreich und Spanien verfügbar.

Und schon schlägt die EU-Kommission Alarm: TikTok Lite könnte aufgrund einiger speziellen Funktionen eine Gefahr für Minderjährige sein, so die Sorge.

TikTok ist die beliebteste App unter Jugendlichen
TikTok ist die beliebteste App unter Jugendlichen

TikTok lite verbraucht weniger Daten

Das ist eine abgespeckte Version der Video-App TikTok, die speziell für Nutzer mit langsameren Internetverbindungen oder älteren Smartphones entwickelt wurde. Sie ist eigentlich gedacht für Länder, in denen das Mobilfunknetz nicht so schnell ist oder die Handys alt und schwach. Da kann die normale TikTok-App schnell frustrierend werden, weil Videos ewig laden oder die App ruckelt.

Genau für dieses Publikum ist TikTok Lite gedacht. Die Lite Version ist deutlich kleiner und ressourcenschonender als die Haupt-App. Sie benötigt deutlich weniger Speicherplatz im Handy und läuft auch mit wenig Arbeitsspeicher flüssig.

Gleichzeitig lassen sich selbst mit einer 3G-Verbindung Kurzvideos ohne lange Ladezeiten anschauen. Aber sonst, was man kennt: Liken, teilen, selbst Videos aufnehmen. Aber eben alles reduziert.

In den USA droht ein TikTok Verbot
In den USA droht ein TikTok Verbot

TikTok belohnt grenzenloses Videosschauen

Deswegen wird TikTok Lite bislang in Schwellenländern eingesetzt, in Afrika, in Südamerika und in Teilen von Asien.

Sie hat aber noch eine andere Besonderheit – außer der Datensparsamkeit…

Richtig – und die ist nicht unerheblich. Es gibt ein Belohnungssystem. Das nennt sich „Tasks and Rewards“: Wer TikTok Lite benutzt und an diesem Reward-Programm teilnimmt wird belohnt für das Anschauen von Videos – und das Liken. Für das Folgen von bestimmten TikTok-Persönlichkeiten.

Und für das erfolgreiche Einladen von neuen Usern, die dann auch die App installieren und sich im TikTok-Universum aufhalten. Es gibt also Belohnungen für die Benutzung der App und für das Bewerben von TikTok.

Die eingesammelten Punkte lassen sich später in Amazon-Gutscheinen umtauschen – und damit können die Lite-User dann alles kaufen. Außerdem gibt es „TikTok Coins“, eine Art TikTok-Währung. Damit lassen sich dann zum Beispiel Creators bezahlen.

Das Ganze läuft also darauf hinaus, dass die die Nutzer – und das sind in erster Linie junge Menschen – noch mehr Zeit im Universum dieser App verbringen.

TikTok ist eine chinesische Video-App - und wird nun von der EU näher untersucht
TikTok ist eine chinesische Video-App – und wird nun von der EU näher untersucht

TikTok Lite in der EU

Jetzt ist die neue Version der App auch in Frankreich und Spanien verfügbar, bei uns noch nicht. Doch die EU ist alarmiert und verlangt von Betreiber Bytedance eine Erklärung. Wieso

Die EU-Kommission sagt, Betreiber Bytedance hätte nach dem neuen „Digital Services Act“ bereits vor der Veröffentlichung der App – die im Wesentlichen mit der Haupt-App gleich ist – eine Risikoeinschätzung vorlegen müssen.

Das hat der Betreiber nicht getan. Bytedance musste das binnen 24h nachholen. Es zeigt sich, dass die EU-Kommission den Digital Services Act ernst nimmt und auch anwendet.

EU-Binnenmarktkommissar Thierry Breton fragte öffentlich auf X, ob „TikTok lite“ nicht genauso süchtig mache wie „Zigaretten light“ – da wird ja auch durch den Namenszusatz suggeriert, es handele sich um eine viel harmlosere, weil „leichtere“ Version.

Denn die Belohnungsfunktion in TikTok Lite, so die Kritik, könne möglicherweise ein Suchtrisiko insbesondere für Minderjährige darstellen. Wer sich bei der neuen App anmelden will, müsse daher offiziell mindestens 18 Jahre alt sein.

Brüssel verlangt von TikTok daher Maßnahmen, die verhindern, dass sich Minderjährige unter Angabe eines falschen Geburtsdatums trotzdem anmelden.

Die EU und Jugendschutz

Zunächst einmal finde ich es gut und richtig, dass die EU-Kommission in diesem Fall schnell reagiert, bevor TikTok lite in ganz Europa verfügbar ist und Tatsachen geschaffen wurden.

Denn es geht in der Tat um den Jungendschutz. Und der ist auch dringend nötig. Tiktok hat schon in seiner klassischen Form mit 34 Stunden im Monat die höchste durchschnittliche Verweildauer aller Plattformen weltweit.

Wenn jetzt noch ein perfides Belohnungssystem dazu kommt, kriegt man die Kinder ja gar nicht mehr weg von der App, da sie sich unbemerkt etwas dazu verdienen können. Es ist wirklich zwingend notwendig, dass verhindert wird, dass Minderjährige das nutzen.

Aber dann bräuchte es eine wirklich funktionierende Altersverifikation, etwa mit Ausweis, bei TikTok Lite. Ich bin da sehr gespannt, denn es gibt noch viele andere Bereiche, in denen es eine valide Altersverifikation bräuchte, etwa bei Porno-Inhalten im Netz. Hier hat der Gesetzgeber viel zu lange weggeschaut. Der Fall TikTok Lite ist deswegen sehr wichtig.