Meta vs. EU: Der Kampf gegen Desinformation wird härter

von | 03.05.2024 | Digital

Die EU hat bereits mehrere Verfahren gegen Meta (Facebook, Instagram, WhatsApp) abgeschlossen und neue eingeleitet. Das Ergebnis: Milliardenbußgelder und verschärfte Auflagen. Doch die Probleme mit Desinformation und Wahlmanipulation bleiben akut.

2026 stehen wieder wichtige Wahlen an – und die Lage bei Fake News und gezielter Desinformation hat sich dramatisch verschärft. KI-generierte Inhalte sind mittlerweile so perfekt, dass selbst Experten sie kaum noch von echten Inhalten unterscheiden können.

Die großen Plattformen wie Meta, X (ehemals Twitter) und TikTok stehen unter enormem Druck. Doch reichen die bisherigen Maßnahmen aus? Die Bilanz ist ernüchternd: Trotz verschärfter Regeln kursieren mehr Falschnachrichten denn je.

Digital Services Act zeigt erste Erfolge

Der Digital Services Act (DSA) hat bereits mehrere Milliarden Euro an Strafen eingebracht. Meta musste 2025 insgesamt 2,4 Milliarden Euro zahlen – unter anderem wegen unzureichender Bekämpfung von Desinformation und mangelhafter Transparenz bei politischer Werbung.

Die Vorwürfe waren konkret: Meta hatte es versäumt, systematische Desinformationskampagnen rechtzeitig zu erkennen und zu stoppen. Besonders problematisch waren koordinierte Angriffe auf demokratische Prozesse, die oft aus dem Ausland gesteuert wurden.

Ein weiterer Kritikpunkt: Die Meldemechanismen für User waren völlig unzureichend. Wer Fake News oder Hassrede melden wollte, musste sich durch komplizierte Menüs kämpfen – und bekam meist keine Rückmeldung über den Status seiner Meldung.

Das hat sich geändert: Seit Ende 2025 gibt es auf allen großen Plattformen einen „Report“-Button direkt unter jedem Beitrag. Meldungen müssen innerhalb von 24 Stunden bearbeitet und binnen einer Woche beantwortet werden – sonst drohen weitere Strafen.

KI macht alles komplizierter

Das eigentliche Problem sind heute KI-generierte Inhalte. Videos, Fotos und Texte werden in Sekunden erstellt und sind kaum noch von echten Inhalten zu unterscheiden. Politische Deepfakes sind zur Massenware geworden.

Meta hat darauf reagiert: Seit Januar 2026 müssen alle KI-generierten Inhalte deutlich gekennzeichnet werden – nicht nur mit winzigen Hinweisen in den Metadaten, sondern mit gut sichtbaren Overlays direkt im Bild oder Video. Wer das umgeht, dessen Account wird gesperrt.

Das System funktioniert aber nur bedingt. Zwar erkennen die neuen KI-Detektoren von Meta, Google und anderen etwa 85% aller generierten Inhalte – aber 15% schlüpfen weiterhin durch. Bei Millionen von Posts täglich sind das immer noch Hunderttausende unerkannte Fake-Inhalte.

Hinzu kommt: Kriminelle nutzen zunehmend Open-Source-KIs, die keine Wasserzeichen setzen. Tools wie Stable Diffusion oder lokale Varianten von GPT lassen sich so modifizieren, dass ihre Outputs nicht erkennbar sind.

Wahlmanipulation wird professioneller

Die Methoden werden immer raffinierter. Statt plumper Propaganda setzen Akteure heute auf subtile Meinungsmache: Scheinbar harmlose Memes, die bestimmte Narrative verstärken. Fake-Bürgerinitiativen, die Proteste organisieren. Influencer, die für ihre politischen Posts bezahlt werden, ohne das offenzulegen.

Besonders perfide: Sogenannte „Astroturfing“-Kampagnen, die echte Graswurzelbewegungen vortäuschen. Hunderte von Fake-Accounts verbreiten dabei identische oder leicht variierte Botschaften und erwecken so den Eindruck einer breiten Volksmeinung.

Die EU hat darauf mit verschärften Transparenzregeln reagiert. Seit 2026 müssen alle politischen Ads nicht nur als Werbung gekennzeichnet werden, sondern auch den tatsächlichen Auftraggeber nennen – inklusive Finanzierungsquellen. Verstöße werden mit bis zu 10% des Jahresumsatzes bestraft.

Russische und chinesische Akteure weichen jedoch zunehmend auf kleinere Plattformen aus: Telegram, Discord oder spezialisierte Forums. Dort ist die Überwachung schwieriger und die rechtlichen Handhabe begrenzter.

Neue Technologien im Kampf gegen Fakes

Die Plattformen rüsten technisch auf. Meta setzt seit 2026 auf „Content Authenticity Initiative“ (CAI) – ein Standard, der die komplette Entstehungsgeschichte digitaler Inhalte dokumentiert. Von der Aufnahme bis zur Veröffentlichung wird jeder Schritt kryptographisch signiert.

YouTube hat sein „YouTube Shorts Verification“ System eingeführt: Alle Videos unter 60 Sekunden werden automatisch auf Manipulation geprüft. Verdächtige Inhalte werden mit Warnhinweisen versehen oder gar nicht erst veröffentlicht.

TikTok testet „Real-Time Fact-Checking“: Während ihr ein Video anschaut, werden Behauptungen in Echtzeit gegen Faktendatenbanken abgeglichen. Zweifelhafte Aussagen werden sofort mit Kontext-Hinweisen versehen.

Doch die Technologie ist ein zweischneidiges Schwert. Was heute Fakes erkennt, kann morgen selbst zur Erstellung noch besserer Fakes genutzt werden. Es ist ein Wettrüsten, bei dem die Verteidiger meist einen Schritt hinterherhinken.

Was kommt als nächstes?

Die EU plant weitere Verschärfungen. Ab 2027 soll es eine europäische „Digital Truth Authority“ geben – eine zentrale Stelle, die Desinformationskampagnen koordiniert bekämpft und Plattformen zur Sperrung verdächtiger Inhalte zwingen kann.

Außerdem in Planung: Eine „Digital Identity Verification“ für politische Kommunikation. Wer sich zu politischen Themen äußern will, muss seine Identität verifizieren lassen. Anonyme politische Meinungsäußerung würde damit faktisch unmöglich.

Kritiker warnen vor Zensur und dem Ende der freien Meinungsäußerung im Internet. Befürworter sehen darin den einzigen Weg, die Demokratie vor digitaler Manipulation zu schützen.

Klar ist: Der Kampf um die Wahrheit im Netz hat gerade erst begonnen. Die kommenden Jahre werden zeigen, ob demokratische Gesellschaften dem Ansturm der Desinformation standhalten können – oder ob das Internet zur größten Bedrohung für die Demokratie wird, die wir je erlebt haben.

Zuletzt aktualisiert am 16.02.2026