Fake News: Mehr davon durch Einsparungen bei Social Media?

von | 28.11.2022 | Digital

Jedes fünfte TikTok-Video enthält Hinweise von Desinformation. Auf Twitter steigt der Anteil an Fake News derzeit ebenfalls – da die Hälfte der Belegschaft gekündigt wurde. Wie dem Problem beikommen?

Vor allem in den Sozialen Medien ist die Gefahr groß, weil dort schnelles Teilen und oft auch emotionale Ansprache üblich sind. Laut einer „NewsGuard“-Studie , ein Unternehmen, das die Glaubwürdigkeit von Nachrichten bewertet, enthält zum Beispiel jedes fünfte TikTok Elemente von Desinformation. Deswegen kann es hilfreich sein zu schauen, wie lange es die Profile gibt und mit wem sie interagieren.

Kampf gegen „Fake News“ ist nicht einfach

Kaum jemand hat den Begriff häufiger benutzt als Ex-Präsident Donald Trump: „Fake News“. Alles, was ihm nicht passt, wird als „Fake News“ bezeichnet – als gezielte Desinformation. Richtig ist sicher, dass in den Sozialen Netzwerken viele falsche Informationen kursieren, die wie „echt“ und „richtig“ wirken. Teilweise aus Unwissenheit verbreitet, teilweise aber auch mit Vorsatz – und dem Ziel, die Öffentlichkeit zu verunsichern oder zu desinformieren.

Der Kampf gegen solche „Fake News“ ist nicht einfach. Doch im Augenblick werden bei Social Media Diensten wie Twitter, Facebook und Co. Stellen abgebaut – im großen Stil. Bei Twitter sogar extrem. Welchen Einfluss hat das auf die Menge und Qualität von Fake News, wenn die nicht mehr bekämpft werden? Und welche technischen Maßnahmen könnten helfen, Fake News als solche zu enttarnen und an der rasanten Verbreitung zu hindern?

Fake News sind ja keine Kleinigkeit, sondern können für die Gesellschaft eine ernsthafte Bedrohung darstellen, heißt es immer wieder.

Sturm aufs Capitol

Das beste Beispiel dafür ist der Sturm auf das Capitol im Januar 2021. Die ständige Wiederholung der Behauptung, die Wahlen in den USA seien manipuliert und sogar gestohlen worden, angereichert durch jede Menge Falschbehauptungen und Lügen, die vor allem auf Twitter verbreitet wurden. Dort hatte Donald Trump am Ende 90 Millionen Follower. Die Folgen all dieser Behauptungen, Lügen und Aufstachlungen kennen wir: Am 6. Januar 2021 wurde das Capitol gestürmt. Der Mob ist sogar ins Capitol eingedrungen.

Es sind Personen zu Schaden gekommen, sogar gestorben. Das hat die US-Politik wachgerüttelt: Bis dahin hatte man die Wirkung, die Fake News, aber auch Hass und Hetze auf Social Media verbreiten können dramatisch unterschätzt.

Seitdem ist man in Washington D.C. wacher. Wir wissen aber auch hier in Europa: Vor allem russische Quellen verbreiten auf Social Media jede Menge Unwahrheiten, um die Bevölkerung zu spalten und Unfrieden zu stiften. Man kann wohl mit Fug und Recht sagen: Fake News spalten die Gesellschaft und können sogar zu Gewaltbereitschaft führen.

Bei ausgedünnter Personaldecke weniger Schutz vor Fake News

Es gibt mittlerweile ja auch gesetzliche Vorschriften, Fake-News unter bestimmten Umständen aktiv zu bekämpfen – auch wenn das nicht einfach ist. Plattformen müssen da aktiv werden. Wie gut kann das gelingen, wenn da die Personaldecke aktuell ausgedünnt wird?

Twitter hat nach dem Einstieg von Elon Musk mehr als die Hälfte der Belegschaft entlassen. Vor allem im „Safety“-Department, das für die Einhaltung der Nutzungsregeln verantwortlich ist, wurde dramatisch ausgedünnt. Es gibt auch weniger Entwickler, die neue Algorithmen entwickeln könnten, um Fake News oder der Verbreitung von Hass und Hetze zu begegnen.

Die Folge: Schon wenige Tage nach dem Einstieg von Elon Musk hat die Verwendung von Schimpfwörtern („N“-Wort in den USA) um den Faktor 5 zugenommen. Algorithmen und Personal schreiten seltener ein – und das hat dramatische Konsequenzen.

Im Fall von Twitter kommt hinzu, dass Elon Musk sehr bewusst sagt: Mehr Redefreiheit, weniger Grenzen. Das lädt natürlich auch dazu ein, auf der Plattform verstärkt Hass, Hetze und auch Fake News zu verbreiten. Auch Facebook hat seine Personaldecke ausgedünnt. Nicht ganz so dramatisch wie auf Twitter. Aber auch hier, also auf Facebook und Twitter, ist mit einer Zunahme von Fake News zu rechnen.

Was können und sollten Nutzer tun

In der Tat spielen wir Nutzer eine große Rolle. Denn erst dadurch, dass wir Fake-News lesen, liken und verteilen, denken die Algorithmen: Das sind coole, gute Nachrichten. Die müssten mehr Menschen sehen. Würden wirklich alle – das wird natürlich nie passieren! – darauf nicht reagieren, würden sich Fake News auch nicht so schnell und effektiv verbreiten. Wir sollten nicht gleich reflexartig alles liken und teilen, das ist schon mal wichtig. Es

hilft auch, im Zweifel mal nachzuschauen, ob eine Nachricht oder Behauptung stimmen kann. Ich empfehle da einen Besuch bei Fakten-Checkern wie Correctiv oder Mimikama.at.

Das ist ein super Portal: Hier werden besonders steile Behauptungen, aber auch Lügen und angebliche Meldungen, die eine große Verbreitung finden, auf ihren Wahrheitsgehalt überprüft. Da kann man also nachschauen und sich aufschlauen. Bei Postings, die ganz offensichtlich gegen Regeln verstoßen, empfiehlt es sich auch, diese bei Facebook, Instagram, Tiktok, Twiter aktiv zu melden, damit die weitere Verbreitung eingedämmt wird.

„Gegenrede“ schadet

Viele sagen ja: Wenn Ihr was lest, was nicht stimmt – Gegenrede! Also Gegenargumente liefern. Hilft das?

Nur in einem bestimmten Rahmen. Wenn Freunde etwas verbreiten, was offenkundig nicht stimmt, kann man das machen. Aber im großen Stil empfiehlt sich das nicht. Wenn zum Beispiel ein Bot – also ein computergesteuertes Konto – auf Twitter oder Instagram Falschmeldungen verbreitet und man dann anfängt, dagegen zu argumentieren, ist das aus Sicht der Algorithmen eine Interaktion – und die mögen Algorithmen.

Sie denken dann: Klasse, hier ist was los, das zeige ich auch vielen anderen Menschen. In dieser Hinsicht ist es also kontraproduktiv, auf Desinformation zu reagieren. Argumentieren bringt sowieso inhaltlich nichts. Ich rate davon ab.

TikTok: Bei jungen Usern erfolgreicher als Instagram

TikTok: Bei jungen Usern erfolgreicher als Instagram

Mit Algorithmen und KI gegen Fake News

Aber in welchem Rahmen können Algorithmen oder KI eine Hilfe sein, Fake News zu erkennen und aus dem Verkehr zu ziehen?

Man muss ehrlicherweise sagen, dass es die Plattformen hier nicht einfach haben. Zum einen gelten nicht überall auf der Welt dieselben Regeln, was Meinungsfreiheit betrifft. Zum anderen ist es nicht so einfach, einen Inhalt als „wahr“ oder „falsch“ einzustufen.

Ein Algorithmus kann keinen Fakten-Check durchführen. Das ist unmöglich. Es kann also nur Werkzeuge geben, die den nutzenden Menschen helfen, sich besser zu orientieren. Wo kommt eine Meldung her? Was ist die ursprüngliche Quelle? Wer verbreitet die Meldung? Gibt es Meldungen, die darauf hindeuten, dass es sich um eine Falschnachricht handeln könnte?

Dann helfen auch Links zu vertrauenswürdigen Quellen, etwa bei Fragen der Gesundheit – während der Pandemie. Kein einfacher Job, das in den Griff zu bekommen. Weder technisch, noch inhaltlich. Da hilft es natürlich überhaupt nicht, wenn aktuell deutlich weniger Menschen mit der Aufgabe betraut sind, darüber zu wachen und die Algorithmen zu verbessern.

Wer entscheidet: Fake News oder nicht

Das ist ja auch eine wichtige Frage: Wer soll eigentlich entscheiden, was als Fake News gilt? Der Staat? Die Plattformen? Beides nicht gerade verlockend…

Allerdings. Der Staat sollte keine Kontrolle über die Redefreiheit haben. Kommerziell betriebene Plattformen aber auch nicht, denn die profitieren wirtschaftlich von jeder Aufregung – es bringt mehr Werbeeinnahmen. Deshalb wird an Systemen gearbeitet, die übergeordnet sind. Facebook zum Beispiel hat ein „Oversight Board“ eingerichtet. Zusammengesetzt aus Personen, die Experten sind, die verschiedene Bereiche vertreten – etwa Politik, Forschung, Juristen, Strömungen – und entscheiden sollen, welche Regeln gelten, welche Konten gesperrt werden, unter welchen Umständen sie wieder freigeschaltet werden etc.

Das soll verhindern, dass weder Politik durchgreifen kann, noch die Plattformen alleine regieren. Noch gibt es aber keine einheitlichen Standards und auch keine Regeln dafür in Europa, die zufriedenstellend wären und an die sich alle halten müssen. Es ist nicht leicht.

 

 

 

 

Schieb App