Wie Youtube, TikTok und Co. Verschwörungen befeuern

von | 14.05.2020 | Social Networks

Die Sozialen Netzwerke spielen eine zentrale Rolle bei der Verbreitung von Verschwörungserzählungen: Sie wirken wie ein Brandbeschleuniger – und dienen vielen sogar als seriöser Beleg. „Das habe ich auf TikTok gesehen“ oder „Stand so auf X“ – als hätte das irgendwas zu sagen. Darum verbreiten sich auch die verrücktesten Gedanken in Windeseile. Die Plattformen unternehmen nach wie vor zu wenig, um das aufzuhalten. Sie profitieren weiterhin davon.

„Verschwörungserzählungen hat es schon immer gegeben“, erklären Experten wie die Autorinnen Katharina Nocun und Pia Lamberty. Zweifellos – aber beruhigend ist das nicht. Vor allem deswegen nicht, weil Verschwörungserzählungen seit der Pandemie und verstärkt durch aktuelle Krisen wieder Hochkonjunktur haben. Dem Netz sei dank.

Ver

Neue Plattformen, alte Probleme

Durch das Netz erreichen auch absurdeste Gedanken im Blitztempo das andere Ende der Erde – und damit Gehirne, die nur allzu bereit sind, das soeben Aufgeschnappte zu verarbeiten und zu verteilen. Während früher YouTube und Facebook die Hauptkanäle waren, haben sich die Verschwörungserzählungen längst auf alle Plattformen ausgebreitet: TikTok mit seinen Kurzvideo-Algorithmen, Telegram als scheinbar „zensurfreier“ Raum, X (ehemals Twitter) unter neuer Führung mit gelockerten Moderationsregeln, und selbst vermeintlich harmlose Plattformen wie Pinterest oder LinkedIn.

Besonders problematisch: Die Algorithmen dieser Plattformen belohnen emotionale, kontroverse Inhalte mit mehr Reichweite. Verschwörungserzählungen sind per Definition emotional aufgeladen – sie erzeugen Angst, Wut oder das Gefühl, zu einer eingeweihten Gruppe zu gehören. Das macht sie zu perfektem Futter für die Empfehlungsalgorithmen.

KI macht alles noch komplizierter

Seit 2023 hat die KI-Revolution das Problem noch verschärft. Mit Tools wie ChatGPT, Midjourney oder den Video-KI-Generatoren können heute selbst technische Laien in wenigen Minuten überzeugende „Belege“ für ihre Theorien erstellen. Gefälschte Dokumente, die aussehen wie offizielle Regierungspapiere? Kein Problem. Videos von Politikern, die Dinge sagen, die sie nie gesagt haben? Deepfakes machen es möglich.

Nicht wenige derer, die sich auf solche Erzählungen einlassen, machen sich sogar richtig viel Mühe. Sie „recherchieren“, verweisen auf Links und Fundstellen im Netz. Und da es genügend Quellen gibt, wo Menschen entweder in Videos dieselben Verschwörungsgeschichten erzählen oder Webseiten bauen, die zum Beispiel „Defense Intelligence Agency“ getauft wurden, ist es nicht schwer, „Quellen“ zu benennen.

Wie wertvoll ist heute noch eine „Quelle“?

Das macht deutlich, dass der Begriff „Quelle“ massiv an Wert verloren hat. Ja, nahezu bedeutungslos geworden ist. Zumindest so lange man die Quelle nicht selbst untersucht und qualitativ bewertet. Das Video eines Verirrten ist genauso einfach zu finden wie ein Tagesschau-Beitrag. Eine Quelle zu benennen ist denkbar einfach geworden.

Leider machen es die Sozialen Netzwerke nach wie vor sehr leicht, dass jeder Unsinn Verbreitung findet. YouTube hat seine Hinweise auf seriöse Quellen zwar ausgeweitet – unter Videos zu Gesundheitsthemen gibt es Verweise auf WHO oder Bundeszentrale für gesundheitliche Aufklärung. Doch diese kleinen Hinweise gehen oft unter oder werden als „Beweis“ für eine angebliche Zensur interpretiert.

Besonders problematisch: TikTok hat 2024 angekündigt, Faktenchecks zu reduzieren, da sie „das Nutzererlebnis beeinträchtigen“. X unter Elon Musk hat die meisten Moderationsteams entlassen. Das Ergebnis: Verschwörungserzählungen verbreiten sich dort praktisch ungehindert.

Community Notes: Flickwerk statt Lösung

X setzt seit 2023 verstärkt auf „Community Notes“ – Nutzer können problematische Inhalte mit Kontext versehen. Das klingt demokratisch, funktioniert aber nur bedingt. Oft dauert es Stunden oder Tage, bis Notes erscheinen – längst hat sich der Unsinn verbreitet. Außerdem können koordinierte Gruppen das System manipulieren.

Dieses Selbstverständnis ist weit verbreitet. Die Plattformen machen ihre eigenen Regeln – und uns, der Gesellschaft, damit das Leben schwer. Weil fast alles kursieren kann und darf. Wir sind darauf angewiesen, dass die Plattformen helfen mögen.

Neue Gesetze, alte Probleme

Der Digital Services Act der EU sollte ab 2024 für Besserung sorgen. Große Plattformen müssen systemische Risiken bewerten und Maßnahmen ergreifen. Doch die Umsetzung ist schleppend. Meta, Google und Co. interpretieren die Regeln großzügig zu ihren Gunsten.

Ein aktuelles Beispiel: Als 2024 in mehreren deutschen Städten Gerüchte über angebliche „Messer-Gangs“ kursierten, verbreiteten sich diese binnen Stunden über alle Plattformen. Obwohl die Polizei schnell dementierte, entstanden reale Proteste und Gewalt. Die Plattformen reagierten erst nach Tagen.

Was können wir tun?

Die Lösung liegt nicht nur bei den Plattformen. Medienkompetenz wird zur Überlebensstrategie. Wer heute nicht lernt, Quellen zu bewerten, KI-generierte Inhalte zu erkennen und Algorithmus-Fallen zu umgehen, wird zum Spielball von Manipulation.

Schulen müssen dringend aufholen. Während Jugendliche intuitiv TikTok bedienen, können viele nicht einmal erkennen, ob ein Video echt oder KI-generiert ist. Das ist das digitale Äquivalent zum Analphabetismus.

Ein unhaltbarer Zustand, der sich nur durch Bildung, bessere Gesetze und den Mut der Plattformen ändern wird, Verantwortung zu übernehmen. Bisher sieht es nicht danach aus.

Zuletzt aktualisiert am 01.03.2026