Avaaz hat Desinformationskampagnen in Deutschland untersucht

von | 08.09.2021 | Digital

Desinformation und Falschinformationen sind längst zu einem festen Bestandteil des digitalen Diskurses geworden. Besonders in Wahlkampfzeiten und bei politisch aufgeladenen Themen kursieren gezielt platzierte Fehlinformationen, die darauf abzielen, Politikern und Parteien zu schaden. Doch wie groß ist das Problem wirklich? Studien zeigen: Deutschland steht vor ähnlichen Herausforderungen wie andere Demokratien weltweit.

Die Unterscheidung zwischen legitimer Kritik und gezielter Desinformation wird immer schwieriger. Während Social Media Plattformen ihre Erkennungssysteme kontinuierlich verbessern, entwickeln sich auch die Methoden der Desinformation weiter. KI-generierte Inhalte, Deepfakes und sophistizierte Bot-Netzwerke machen es noch komplizierter, Wahrheit von Fiktion zu unterscheiden.

Laut Avaaz ist Grünen-Kandidatin Baerbock am häufigsten Ziel von Desinformationskampagnen

Aktuelle Entwicklungen bei Desinformationskampagnen

Nach den Erkenntnissen verschiedener Studien, darunter auch die wegweisende Untersuchung von Avaaz, hat sich das Muster von Desinformationskampagnen verfestigt. Das Netzwerk hatte die Ergebnisse der Fakten-Checker von dpa, AFP und des Rechercheverbunds Correctiv analysiert und dabei rund 85 „Desinformationsnarrative“ zu deutschen Politikern identifiziert.

Die Methoden haben sich seit 2021 erheblich weiterentwickelt. Heute arbeiten Desinformationskampagnen mit ausgeklügelteren Strategien: Sie nutzen Algorithmus-Optimierung, um ihre Reichweite zu maximieren, setzen auf emotionale Trigger und verwenden oft halbwahre Informationen, die schwerer zu widerlegen sind als komplette Falschmeldungen.

Neue Akteure und Plattformen

Neben den etablierten Plattformen wie Facebook, Instagram und Twitter (jetzt X) sind neue Kanäle hinzugekommen. TikTok, Telegram und alternative soziale Netzwerke werden zunehmend für die Verbreitung von Desinformation genutzt. Besonders problematisch: Diese Plattformen haben oft weniger entwickelte Fact-Checking-Systeme.

Die EU hat mit dem Digital Services Act (DSA) neue rechtliche Rahmenbedingungen geschaffen, die Plattformen zu mehr Transparenz und Verantwortung verpflichten. Große Plattformen müssen jetzt systematisch gegen Desinformation vorgehen und ihre Maßnahmen regelmäßig rapportieren.

KI als Waffe und Werkzeug

Künstliche Intelligenz hat das Spiel komplett verändert. Während ChatGPT und andere Large Language Models bei der Fact-Checking-Arbeit helfen können, werden sie gleichzeitig für die Massenproduktion von Desinformation missbraucht. Automatisch generierte Artikel, gefälschte Kommentare und Bot-Armeen können heute täuschend echt wirken.

Besonders perfide: KI-Tools können mittlerweile personalisierte Desinformation erstellen, die gezielt auf die Vorurteile und Ängste bestimmter Zielgruppen zugeschnitten ist. Das macht traditionelle Fact-Checking-Ansätze weniger effektiv.

Zielscheiben der Desinformation

Die Avaaz-Studie hatte gezeigt, dass Annalena Baerbock überproportional oft Ziel von Desinformationskampagnen war – ein Muster, das sich bei anderen prominenten Politikerinnen wiederholt. Frauen in der Politik werden häufiger und aggressiver mit Falschinformationen angegriffen als ihre männlichen Kollegen.

Dabei geht es nicht nur um politische Inhalte: Oft werden private Details erfunden oder verzerrt dargestellt, um die Glaubwürdigkeit der Person systematisch zu untergraben. Diese personalisierten Angriffe sind besonders wirkungsvoll, weil sie emotionale Reaktionen hervorrufen.

Die Rolle der Medien

Journalisten stehen vor einem Dilemma: Ignorieren sie Desinformationskampagnen, können sich falsche Narrative unwidersprochen verbreiten. Berichten sie darüber, verstärken sie möglicherweise deren Reichweite. Dieser „Amplification Effect“ ist ein bekanntes Problem.

Fact-Checking-Initiativen wie Correctiv, Mimikama oder die ARD-Faktenfinder haben ihre Arbeitsweise angepasst. Statt nur einzelne Falschmeldungen zu widerlegen, analysieren sie systematisch Desinformationsnarrative und deren Verbreitungswege.

Was können wir tun?

Medialität und kritisches Denken werden zu Schlüsselkompetenzen. Schon in der Schule sollten Jugendliche lernen, Quellen zu bewerten und Manipulationstechniken zu erkennen. Tools wie die „Lateral Reading“-Methode helfen dabei, Informationen zu verifizieren.

Für den Alltag gilt: Erst prüfen, dann teilen. Reverse Image Search, Quellencheck und ein gesundes Misstrauen bei zu emotionalen oder zu perfekt passenden Meldungen können helfen. Plattformen bieten mittlerweile auch bessere Werkzeuge, um verdächtige Inhalte zu melden.

Mein Gespräch mit Guido Bülow von Facebook über den Kampf gegen Falschinformationen

Ausblick: Der Kampf geht weiter

Desinformation wird ein Dauerthema bleiben. Mit jeder neuen Technologie entstehen neue Möglichkeiten für Manipulation – aber auch für deren Erkennung. Entscheidend ist, dass alle Akteure – Plattformen, Politik, Medien und Nutzer – ihre Verantwortung wahrnehmen.

Die Demokratie funktioniert nur, wenn öffentliche Debatten auf einer gemeinsamen Faktenbasis stattfinden. Dafür zu sorgen ist eine gesamtgesellschaftliche Aufgabe, die weit über technische Lösungen hinausgeht.

Zuletzt aktualisiert am 24.02.2026