Pannenserie bei Facebook

von | 16.09.2017 | Social Networks

Facebook kommt derzeit aus den Schlagzeilen nicht heraus – mit schlechten Nachrichten. Der Kampf gegen Fake-News scheint nicht viel zu bringen, dann wurden deutschen Usern bevorzugt rechte Themengruppen vorgeschlagen – und nun wurden Anzeigenkunden gezielt „Judenhasser“ als Zielgruppe vorgeschlagen. Bei Facebook geht es offensichtlich derzeit drunter und drüber. Was bedeutet das aber für uns?

Das Thema Fake-News ist kein Neues. Im Gegenteil. Vor allem auf Facebook verbreiten sich Verschwörungstheorien und Falschmeldungen besonders schnell und erfolgreich. Dagegen muss das Soziale Netzwerk vorgehen, so will es der Gesetzgeber.

Facebook arbeitet sowohl in den USA als auch bei uns in Deutschland mit sogenannten Fakten-Checkern zusammen, externe Spezialisten, die von Algorithmen oder Usern markierte Nachrichten auf ihren Wahrheitsgehalt hin überprüfen. In den USA ist es so: Bezweifeln mindestens zwei der überprüfenden Instanzen die Glaubwürdigkeit einer Meldung, wird sie in Facebook als „disputed“ markiert, als „umstritten“.

In Deutschland ist es ähnlich – allerdings gibt es hier nur einen externen Faktenprüfer, und der ist heillos überfordert. Nun könnte man ja meinen, als „disputed“ oder „umstritten“ markierte Nachrichten hätten es schwerer bei den Usern. Doch wie eine aktuelle Studie der angesehenen Yale-Universität zeigt, ist es nicht so.

Yale-Studie zeigt: Markierte Beiträge  trotzdem gelesen

Die Studie zeigt eindrucksvoll: Die Markierung bringt fast gar nichts. Weniger gelesen werden die Nachrichten kaum, und es ist lediglich um 3,7 Prozent wahrscheinlicher, dass ein als „umstritten“ markierter Beitrag von den Nutzern auch als falsch oder fragwürdig wahrgenommen wird.

Das bedeutet im Klartext: Obwohl gekennzeichnet, liest die erschlagende Mehrheit der User die Nachrichten trotzdem und lassen sich von der Kennzeichnung praktisch nicht beeindrucken. Selbst als Fake-News gekennzeichnete Beiträge werden also gelesen – und für bare Münze genommen. Das zeigt, wie sinnlos der ganze Aufwand ist, der betrieben wird.

Facebook empfiehlt rechte Gruppen

Keineswegs die einzige Panne in den letzten Tagen bei Facebook. Bis Mitte der Woche haben viele User im Bereich Politik, vor allem AfD-nahe Gruppen vorgeschlagen bekommen. Was genau ist passiert?

Beim Thema „Nachrichten&Politik“ hat Facebook auffallend häufig Diskussionsgruppen aus dem so genannten „rechten“ Spektrum empfohlen. Besonders viele der Gruppen waren AfD-nah, mit Titeln wie: „Wähler und Freunde der AfD“, „Die Patrioten“, „Freunde und Verbündete der AfD“, „Besorgte Deutsche“, „Thilo Sarrazin“, „AfD-Sympathisanten“, sowie „Reale Verschwörungen“, „Killuminati Germany“, „Islam gehört NIEMALS zu Europa!“ oder „Gemeinsam gegen die neue Weltordnung“, um nur einige Beispiele zu nennen.

Andere Gruppen wurden zwar auch empfohlen – aber nur sehr vereinzelt. Man kann sagen: Alle anderen politischen Gruppen, die es ja auch gibt, waren bei Facebooks Empfehlungen deutlich unterrepräsentiert.

Bislang keine Erklärung

Facebook hat bislang keine plausible Erklärung präsentieren können. Denn eigentlich sollen einem Gruppen empfohlen werden, die zu den eigenen Interessen passt – oder die von Freunden abonniert werden. Doch Tests haben gezeigt: Selbst brandneu angelegte Facebook-Konten haben besagte Gruppen empfohlen bekommen. Die Algorithmen, die normalerweise das raussuchen, was zu einem passt, haben offensichtlich perfekt versagt.

Die gute Nachricht: Facebook hat Mitte der Woche den Stecker gezogen. Die merkwürdigen Empfehlungen gibt es derzeit nicht mehr. Facebook macht in diesem Bereich gerade gar keine Empfehlungen. Entdeckt und öffentlich gemacht hat das das Online-Satiremagazin „Der Postillon“. Ausgerechnet. Danach haben es schnell seriöse Magazine und Redaktionen aufgegriffen und auch recherchiert, unter anderem die Faktenchecker der ARD: Schnell war klar: Das Problem existiert tatsächlich.

Algorithmen haben Grenzen

In diesem Fall ist es aufgefallen, was der Algorithmus empfiehlt – aber auch sonst? Das Problem zeigt, dass Facebook seine Empfehlungen nicht im Griff hat – und sei es nur temporär. Und dass die Algorithmen nicht zuverlässig funktionieren. Es ist halt immer gefährlich, sich blind auf Algorithmen zu verlassen. Natürlich: Auch von Menschenhand kuratierte Listen können manipuliert werden, aber wenn man mehrere Augenpaare zur Kontrolle vorschreibt, werden solche Pannen unwahrscheinlich bis unmöglich.

Judenhasser als Zielgruppe

Ein weiteres Beispiel, dass Facebook nichts im Griff hat. Wie das US-Portal ProPublica herausgefunden hat, wurde Werbekunden bis diese Woche auf Facebook als Zielgruppe „Judenhasser“ angeboten. In der Tat erzeugen die Algorithmen von Google automatisch sogenannte „Zielgruppen“: Junge sportbegeisterte Frauen in der Stadt, Radfahrer, Autofreunde, Aktive Senioren – eben Gruppen, die sich durch bestimmte Kriterien auszeichnen und für die Werbewirtschaft interessant sein können, wenn man sie gezielt anspricht.

Nun hat der Algorithmus offensichtlich die „Judenhasser“ als Zielgruppe identifiziert. Die gibt es unter den Facebook-Usern ganz sicher. Peinlich, dass der Algorithmus das merkt – man bei Facebook aber gerne so tut, als gäbe es kein Problem. Nachdem Facebook damit konfrontiert wurde, hat der Konzern die Werbe-Zielgruppe entfernt. Offensichtlich haben viele User diesen Begriff in der Beschreibung ihrer Person eingetragen. Genügend User, dass daraus eine eigene Zielgruppe für Werbekunden generiert wurde – abermals automatisch.

Ich weiß nicht, wie viele Belege es noch braucht, bis man merkt, dass Algorithmen ganz schön viel Unsinn anstellen können. Facebook unterschätzt die Verantwortung, die das Soziale Netzwerk hat – mit seinen zwei Milliarden Mitgliedern. Damit muss endlich Schluss sein.