Soziale Netzwerke wie Facebook, Twitter und Co. haben immer größere Probleme mit so genannten Fake-News. Falsch-Nachrichten, die gezielt gestreut werden, entweder um Aufmerksamkeit zu erregen oder sogar um gezielt zu manipulieren. Hass-Prediger können ihren Hass predigen, Manipulatoren manipulieren.

Über Soziale Netzwerke lassen sich schnell viele Menschen erreichen. Kostenlos. Auch im US-Wahlkampf sollen Fake-News eine große Rolle gespielt haben. Vergangene Woche wollte Mark Zuckerberg noch nichts von Fake-News wissen, mittlerweile denkt er aber um und kündigt Gegenmaßnahmen an.

Entweder, Mark Zuckerberg ist unfassbar naiv – oder er will uns für dumm verkaufen. Beides ist nicht besonders ermutigend. Denn dass Fake-News eine Auswirkung auf das öffentliche Meinungs-Bild haben, kann doch niemand ernsthaft bestreiten.

Hier wollte sich jemand – mal wieder – um seine Verantwortung drücken. Doch selbst Mitarbeiter bei Facebook haben in letzter Zeit öffentlich erklärt, dass Fake-News ein erhebliches Problem darstellen, natürlich nicht nur bei Facebook. Einige haben sogar damit begonnen, geeignete Methoden zur Abwehr zu entwickeln.

facebook-monitore

Fake-News enttarnen

Das entspricht nicht dem Geist des Silicon Valley: Probleme werden hier in der Regel mit Hilfe von Algorithmen gelöst. Oder man versucht es wenigstens. Es gibt verschiedene Ansätze, wie sich das Problem mit den Fake-News möglicherweise in den Griff bekommen lässt.

Den einen großen Wurf, der so überzeugend ist, dass er das Problem wirklich zu lösen in der Lage ist, scheint es in meinen Augen nicht zu geben. Aber es gibt durchaus interessante Ansätze. Die meisten haben damit zu tun, die Qualität von Nachrichten zu beurteilen und User zu warnen, wenn es mit der Qualität etwas nicht in Ordnung ist.

newspaper-412452_1920

Per Algorithmus suchen

Erste Idee: Die User zum Mitmachen bewegen. Facebook, Google, Twitter, Instagram und Co. könnten ihre Melde-Funktion verbessern. User könnten die Möglichkeit bekommen, den Wahrheits-Gehalt einer Meldung zu beurteilen oder objektive Falsch-Meldungen zu melden. Das müsste kinderleicht in der Handhabung sein, dann könnte das schon mal ganz gut funktionieren.

Erst mal nur innerhalb eines Netzwerks, aber natürlich ist so etwas auch über die Grenzen eines Online-Dienstes hinaus denkbar – und sollte man auch denken, damit es besser funktioniert. Auch ein Hinweis unter einer Meldung („30 Freunde haben diese Nachricht geblockt“).

Zweite Möglichkeit: Die Quellen hervorheben. Es macht halt einen Unterschied, ob eine Nachricht von der BBC oder dem WDR kommt – oder von einer Privat-Person aus der Ukraine. Das bedeutet nicht, dass die einen Meldungen immer zutreffend sind und die von anderen nie, doch es ist ein erstes Indiz. Wenn man dann noch beobachtet, wer eine Nachricht weiterleitet oder bestätigt, ergibt sich eine Art Glaubwürdigkeits-Score. Wenn man dann noch die Meldungen der User dazu nimmt, wird es noch interessanter.

 

Lösungen von Princeton

Der bekannte US-Publizist Jeff Jarvis hat bereits einen Katalog möglicher Gegen-Maßnahmen erarbeitet. Viele andere haben mitgemacht oder auch Ideen entwickelt. Charmant auch die Idee eines 18-jähriger Studenten an der US-Universität Princeton, der gemeinsam mit Kommilitonen eine Software für Facebook namens „Stop Living a lie“ (Beende das Leben einer Lüge) entwickelt hat. Ihre Soft3ware kann eigenständig Fake-News erkennen und dem User sogar Links zu den korrekten Meldungen anbieten.

Dazu untersucht die Software die Quelle der Meldung und beurteilt die Seriösität. Quellen, die ihre Nachrichten gewöhnlich überprüfen wie die New York Times oder der WDR gelten dann als seriöse Quellen. Die Wahrscheinlichkeit, dass von hier aus Fake-News verteilt werden, ist eher gering. Anders bei bereits als unseriös identifizierte Quellen: News von hier sind nicht besonders vertrauenswürdig. Außerdem unterscheidet die Software Meinungs-Äußerungen und Tatsachen-Behauptungen.

In beiden Fällen wird automatisch nach Hinweisen gesucht, die dann bewertet werden. Simpel gesprochen kann die Software Lügen enttarnen, da Lügen meist mehr oder weniger identisch verbreitet werden, nur auf unterschiedlichen Kanälen, während über die Wahrheit öfter auf unterschiedliche Weise berichtet wird. Die Software ist allerdings noch nicht frei verfügbar, könnte aber eine Inspiration für die Techniker bei Facebook und Co. sein.

Das liebe Geld

Zum einen verdienen Facebook und Co. ironischer Weise daran, wenn sich Fake-News verbreiten. Spektakuläre Meldungen und Behauptungen werden deutlich öfter geliked und geteilt als „wahre“ Meldungen, einfach, weil sie mehr Aufmerksamkeit generieren – und Aufmerksamkeit ist das Lebens-Elexier von Facebook, Twitter und Co.  Je mehr Likes, desto mehr Geld.

Das erklärt auch, wieso sich Mark Zuckerberg anfangs geweigert hat, die Verantwortung einzugestehen und irgend etwas zu unternehmen. Auch die Verbreiter von Fake-News verdienen gut, teilweise fünfstellige Beträge monatlich. Sie platzieren Anzeigen in ihre Posts… Würden Werbenetzwerke wie die von Google und Co. den Verbreitern von Fake-News die Zusammen-Arbeit verweigern, würden sie ihnen die Grundlage entziehen. Sie könnten also den Sumpf trocken legen.

 

Lässt sich das Problem lösen?

Nicht von heute auf morgen. Es sind ja auch hier Situationen denkbar, die problematisch sind, etwa wenn Nachrichten geblockt werden, die eigentlich seriös sind. Ironische Angebote wie „Der Postillon“ dürften es anfangs sehr schwer haben. Aber: Man muss das Problem angehen – hat man mit Spam ja auch gemacht und wird da immer besser, was das Herausfiltern und Blockieren von Spam-Mails betrifft.