Neue Studien: Filterblasen doch nicht so stark?

von | 04.08.2023 | Social Networks

Die Algorithmen sozialer Netzwerke wie Facebook sind mitverantwortlich für die oft rasante Verbreitung von Falschinformationen und die gesellschaftliche Polarisierung, sagt man. Aber stimmt das auch? Einige aktuelle Studien kommen zu einem anderen Ergebnis.

Filterblase, die: So wird ein Effekt genannt, den es in den Sozialen Medien gibt. Wenn Menschen hauptsächlich oder nur Informationen erhalten, die ihren bereits bestehenden Ansichten oder Vorlieben entsprechen. Darum ist auch von „Echo-Kammern“ die Rede. Man hört und liest immer wieder mehr oder weniger dasselbe. Ein Werkzeug der Manipulation und der Spaltung, sagen viele. Doch jetzt sind einige Studien gemacht worden, die dieses Bild ein wenig aufweichen – oder zumindest differenziert betrachten. Gibt es also doch keine Filterblasen – oder worauf müssen wir uns einstellen?

Vier Studien untersuchen Filterblasen und Echokammern

Die großen Plattformen wie Facebook und Instagram seien vor allem verantwortlich für die Verbreitung von Falschinformationen, heißt es immer wieder. Ob das stimmt und zu welchem Grad, dazu wurden in den USA mehrere aufwändige Studien durchgeführt.

Es waren vier großen Studien mit sechszehn Unterstudien, also eine sehr komplexe – aber dringend nötige Analyse. Die Wissenschaftler haben vor allem untersucht, welchen Einfluss Algorithmen auf die Verbreitung von Falschinformationen und Polarisierung haben. Zwei der größten sozialen Netzwerke standen dabei im Fokus: Facebook und Instagram.

Beide Plattformen gehören dem Tech-Konzern Meta. Die Studien zeigen unter anderem, dass Facebook und Instagram zweifellos eine entscheidende Rolle dabei spielen, Nutzer zu Inhalten zu leiten (sie ihnen also zu präsentieren), denen sie wahrscheinlich zustimmen. Die Algorithmen wählen also aus, was zum Stimmungs- und Meinungsbild passt. Die Studien kommen jedoch zum Ergebnis, dass die Plattformen die politischen Überzeugungen der Nutzer nicht signifikant beeinflussen. können. Das ist überraschend, da man bislang davon ausgegangen ist, dass die Plattformen die Gesellschaft so stark spalten, dass es das Stimmverhalten beeinflusst. Untersucht wurde die Zeit vor und um die letzte Präsidentschaftswahl 2020.

Facebook versorgt die Nutzer mit Infos, die sie mehrheitlich wollen

Wissenschaft und Meta gemeinsam

Eine wichtige Frage ist ja: Wer hat die Studien gemacht?

Die Studien wurden von einem Team aus rund zwei Dutzend Facebook-Forschern und externen Wissenschaftlern durchgeführt. Das ist ungewöhnlich, weil lange Zeit hat sich Meta, also der Konzern hinter Facebook, Whatsapp, Instagram und Co. nicht gerade kooperativ gezeigt, wenn es um solche Studien ging.

Das scheint sich jetzt geändert zu haben. Das hat aber mit dem Cambridge Analytica Skandal 2018 zu tun und den anschließenden Anhörungen vom Kongress und Senat in den USA. Eine der zentralen Kräfte im Team einer der wichtigsten Studien war Talia Jomini Stroud, Direktorin des Center for Media Engagement an der University of Texas. Die Studien wurden in den wissenschaftlichen Zeitschriften „Science“ und „Nature“ veröffentlicht, also wirklich den angesehensten Blättern, die sorgfältig auswählen, was sie veröffentlichen. Von daher handelt es sich um Studien mit einer soliden Datenbasis und Aussagekraft.

Algorithmus oder Chronologie

Die Forscher haben sich auch genau angeschaut, welche Informationen bei den Menschen ankommen.

Es gibt ja unterschiedliche Methoden in Sozialen Netzwerken. Die einen setzen strikt auf chronologische Feeds, wie etwa Twitter. Da sieht man im Prinzip nur, was Leute posten oder empfehlen, denen man folgt – in chronologischer Reihenfolge. Andere Plattformen wie TikTok setzen auf Algorithmen, die auswählen, was dem jeweiligen User gefallen könnte. Instagram und Facebook setzen auf eine Kombination aus diesen Konzepten. Die Frage ist: Welchen Einfluss hat die eine, die chronologische, und die andere, algorithmische Präsentation von Inhalten.

Was wird ausgewählt, was führt eher zu einer Filterblase. Und da liefert eine der Studien ein interessantes Ergebnis: Ein chronologisch sortierter Nachrichten-Feed (im Gegensatz zum algorithmisch sortierten) erhöht(!) den Anteil von Inhalten aus als nicht vertrauenswürdig eingestuften Quellen um mehr als zwei Drittel. Das bedeutet: Wenn nicht der Algorithmus auswählt, sondern mehr oder weniger der Mensch, weil der ja entscheidet, wem er folgt, erhöht das die Wahrscheinlichkeit enorm, dass Falschinformationen erscheinen.

Die Anzahl der unhöflichen, rüden Inhalte wurde jedoch gleichzeitig um fast die Hälfte reduziert. Es ging also gesitteter zu. Allerdings hatte die chronologische Anzeige keinen nennenswerten Einfluss auf die „Polarisierung“ oder das politische Wissen der Menschen.

Facebook fördert die Trennung der Gesellschaft

Fördert Facebook die Trennung der Gesellschaft?

Wirkung nicht so groß wie erwartet

Aber was kann man unter dem Strich dann sagen: Welche Konsequenzen kann und muss man ziehen?

Ein Teil der Studien unterstützt die Argumentation von Facebook, Instagram und Co., dass algorithmisch ausgewählte Inhalte weniger schädlich seien als bisher angenommen. Da scheint auch was dran zu sein, weil die Algorithmen zum Beispiel eher als schädlich eingestufte Inhalte zurückhalten, während das nicht der Fall ist, wenn der User selbst auswählt. Festgestellt wurde auch, dass Facebook „ideologisch stark gespalten ist“, wobei die Spaltung weniger durch die Inhalte geprägt wird, die Freunde posten, sondern erheblich mehr durch Facebook-Seiten und -Gruppen.

Die sind vor allem für schädliche Inhalte zuständig. Darum wird man sich wohl mehr kümmern müssen. Kritiker sagen, die Studien zeigten, dass das Problem komplexer ist als bisher angenommen. Es werden also weitere Untersuchungen folgen müssen. Denn eins steht fest: Proaktiv gute, gesunde, sinnvolle Inhalte fördert keine Plattform. Und mit TikTok ist ein Player am Markt, der in China sitzt, kaum zu kontrollieren ist und ausschließlich auf intransparente Algorithmen setzt.

Was die gut gemachten Studien aber auch zeigen, ist, dass wir den Unternehmen aus als Zulieferern von Informationen ziemlich ausgeliefert sind.

 

 

Schieb App