Fake-News sind wahrlich kein neues Phänomen. Mittlerweile wissen wir: Vor allem in den Sozialen Netzwerken verbreiten sich Fake-News besonders schnell und effektiv. Aber was sind die genauen Gründe? Wissenschaftler aus den USA haben untersucht, wie sich Meldungen auf Twitter verbreiten. Ergebnis: Fake-News verbreiten sich dort besonders schnell und weitreichend – und das Problem hat sich seit Elon Musks Übernahme von X (ehemals Twitter) sogar noch verschärft.
Es ist die bislang umfangreichste Studie. Die Forscher vom MIT haben 126.000 Meldungen untersucht, die von mehr als drei Millionen Menschen in der Zeit von 2007 bis 2011 getwittert wurden. Die Wissenschaftler konnten eindeutig nachweisen: Fake-News verbreiten sich auf Twitter dramatisch schneller und erreichen mehr Menschen als wahre Meldungen.
Sie werden zum Beispiel auffällig häufig retweetet. Dadurch erreichen Fake-News zehn bis hundert Mal(!) so viele User wie wahre Geschichten – und sie verbreiten sich außerdem sechs Mal schneller. Und wer sorgt dafür? Die User selbst. Nix Bots. Wir User beschaffen den Fake-News Aufmerksamkeit, wir kommentieren, liken, leiten weiter.

pixel2013 / Pixabay
KI verschärft das Problem zusätzlich
Seither hat sich die Situation dramatisch verschlechtert. KI-Tools können heute täuschend echte Texte, Bilder, Videos und sogar Audio-Aufnahmen generieren. Deepfakes sind mittlerweile so realistisch, dass selbst Experten sie kaum noch erkennen können. Die Produktion von Fake-News wird dadurch nicht nur einfacher, sondern auch kostengünstiger und schneller.
Gleichzeitig haben Social-Media-Plattformen ihre Moderationsstandards gelockert. X (ehemals Twitter) hat unter Elon Musks Führung massive Personalkürzungen bei der Content-Moderation vorgenommen. Das Resultat: Falschinformationen können sich noch ungehemmter ausbreiten. TikTok und Instagram haben ähnliche Probleme, wobei besonders Videos mit emotionalen Inhalten viral gehen.
Die Bots spielen nur eine geringe Rolle – noch
Bots spielen bei der Verbreitung von Falschmeldungen durchaus eine Rolle, aber keine so große, wie man bislang angenommen hat. Rund 20% aller Meldungen im politischen Bereich stammen von Bots. Aber das allein sorgt nicht für Verbreitung. Verantwortlich für den Schneeballeffekt sind ganz klar die User: Fake-News werden deutlich häufiger retweetet und erreichen zehn- bis hundertmal so viele Menschen wie reguläre Tweets.
Allerdings wird sich das ändern. KI-gesteuerte Bots werden immer raffinierter und können menschliches Verhalten täuschend echt nachahmen. Sie erstellen Fake-Profile mit glaubwürdigen Biografien, interagieren natürlich mit anderen Usern und verbreiten gezielt Desinformation. Diese „Super-Bots“ sind deutlich schwerer zu erkennen als ihre primitiven Vorgänger.
Entscheidend für den Erfolg ist dabei vor allem der vermeintlich höhere Neuigkeitswert der Fake-News, auch der Überraschungseffekt solcher Fake-Meldungen. Leider haben die Forscher auch festgestellt: Die Quelle und ihre jeweilige Popularität spielen dagegen gar keine Rolle.
Wahrheit spielt keine Rolle, nur Emotionalität
Falschmeldungen verbreiten sich signifikant weiter, schneller, tiefer und breiter als die Wahrheit – und das in allen Kategorien der Information. Wahre Meldungen erreichen nur selten mehr als 1000 Menschen. Fake-News haben es leichter, die am weitesten verbreiteten Fake-News wurden von 1000 bis 100.000 Menschen gelesen und retweetet.
Außerdem sind wahre Meldungen träger, sie verbreiten sich sechs Mal langsamer. Der Schneeballeffekt setzt also vor allem bei Fake-News ein. Das Problem gibt es freilich nicht nur bei Twitter, sondern genauso bei Facebook, Instagram, TikTok und Co. Die Forscher haben Twitter nur exemplarisch untersucht.
Besonders problematisch: Algorithmen verstärken diesen Effekt. Sie sind darauf programmiert, Inhalte zu bevorzugen, die starke emotionale Reaktionen auslösen – Wut, Empörung, Angst. Fake-News bedienen diese Emotionen perfekt. Seriöse, ausgewogene Berichterstattung wirkt dagegen langweilig und wird seltener geteilt.
Der Reiz der FakeNews
Die Forscher haben das genau analysiert. Entscheidend waren stets Neuigkeitswert und Überraschungsfaktor. Das schaffen Fake-News mühelos, schließlich behaupten sie Dinge, die uns überraschen und aufwühlen. Die Quelle der angeblichen Nachrichten, ob seriös oder nicht, spielt hingegen praktisch keine Rolle. Ein dramatisches Zeugnis.
Hinzu kommt der Bestätigungsfehler: Menschen teilen bevorzugt Inhalte, die ihre bestehenden Überzeugungen bestätigen – unabhängig davon, ob sie wahr sind. In polarisierten Zeiten verstärkt sich dieser Effekt zusätzlich. Fake-News werden gezielt so designed, dass sie in bestimmte Weltanschauungen passen.
Das nur den einen Schluss zulässt: „Soziale Netzwerke“ sind schädlich, da sie das Schlechte und Falsche stärken, nicht schwächen. Und wir machen mit. Und wir Journalisten sind auch nicht ganz unschuldig. Schließlich versorgen wir die Netzwerke mit seriösen News, oft ein Feigenblatt für die Dienste. Die seriösen Nachrichten werden nicht so stark wahrgenommen.
Was können wir dagegen tun?
Zunächst einmal die: Die Verantwortung liegt zu einem nicht unwesentlichen Teil bei uns. Bei uns Usern. Wir sollten uns gut überlegen, auf welche Meldungen wir reagieren. Es geht nicht mal nur darum, was wir liken oder teilen. Selbst die von Facebook gerne vorgeschlagene „Gegenrede“ ist kontraproduktiv: Sie suggeriert Interesse und macht Fake-Beiträge für die Algorithmen interessant.
Fact-Checking-Tools haben sich weiterentwickelt. Browser-Erweiterungen wie NewsGuard oder Ground News helfen dabei, die Glaubwürdigkeit von Quellen zu bewerten. Auch KI wird zunehmend zur Erkennung von Fake-News eingesetzt – ein Wettrüsten zwischen Erzeugung und Erkennung falscher Inhalte.
Medienkompetenz ist wichtiger denn je. Wer lernt, Quellen zu hinterfragen, Bilder rückwärts zu suchen und emotionale Manipulation zu erkennen, ist besser gewappnet. Schulen und Universitäten integrieren diese Fähigkeiten zunehmend in ihre Lehrpläne.
Das klare Fazit
Die emotionale Wirkung der Inhalte entscheidet also über Erfolg und Misserfolg. Und eine emotionale Wirkung haben Fake-News zweifellos. Das Problem wird sich in den kommenden Jahren noch verschärfen – durch bessere KI, schwächere Moderation und zunehmende gesellschaftliche Polarisierung.
Denkt nach, bevor ihr retweetet, teilt oder auch nur kommentiert. Jede Interaktion ist ein Signal an den Algorithmus. Seriöse Medien brauchen unsere Unterstützung mehr denn je – nicht durch Klicks auf Sensationsschlagzeilen, sondern durch bewusste Entscheidungen für qualitätsvolle Information.
Zuletzt aktualisiert am 29.03.2026

