Was hat uns das Internet an Freiheit gebracht: Jeder kann offen seine Meinung sagen/schreiben/zeigen. Meinungsaustausch mit der ganzen Welt – wunderbar. Funktioniert aber nur dann gut, wenn sich die Menschen gegenseitig respektieren.

Aber die traurige Erkenntnis ist: Der Mensch neigt zum Missbrauch. Im Schutze der Anonymität wird gepöbelt, angefeindet, aufgehetzt, getrollt und gelogen – und das leider immer öfter und immer intensiver. Das Netz verfielfältig das Gute wie das Schlechte. Fakten und Wahrheiten werden von jedem selbst gemacht – und tatsächlich diskutieren, Argumente austauschen, das kommt immer seltener vor, tritt häufig in den Hintergrund.

Twitter will mit Algorithmen arbeiten

Im Silicon Valley setzt man zum Lösen von Problemen auf Technik. Auch beim Lösen von Problemen, die durch Technik ert entstanden sind. Facebook zum Beispiel versucht, mit geeigneten Algorithmen sogenannte Fakenews zu enttarnen. Einen ähnlichen Weg will jetzt Twitter beschreiten: Twitter hat sich lange überhaupt nicht um das Problem gekümmert.

Jetzt aber will Twitter mit Algorithmen gegen Hasskommentare vorgehen: Software soll beurteilen, ob Tweets angemessen sind oder nicht. In den Suchergebnissen der „Safe Search“ sollen fragwürdige Tweets nicht mehr auftauchen. Was aber zwangsweise dazu führen wird – ein Problem jeder Filtertechnologie -, dass auch Tweets weggeblendet werden, die das nicht verdient haben.

Twitter will auffällige Accounts weniger gut sichtbar machen: Nur konkrete Follower sollen die Tweets sehen, wenn ein Algorithmus der Ansicht ist, hier würde es nicht mit rechten Dingen zugehen. Für alle anderen bleiben die Inhalte unsichtbar.

Der große Wurf wird das also nicht werden, was Twitter da angekündigt hat. Es wird nur an den Symptomen herumgedoktert, nicht am Problem an sich. Das – zugegeben! – allerdings von den Sozialen Netzwerken selbst auch nicht ohne weiteres gelöst werden kann. Sie sind sozusagen selbst das Problem: Denn hier kann nun mal jeder alles sagen – und viele machen das eben einfach auch.

Google Perspective will Trolle enttarnen

Auch Google hat einen Algorithmus entwickelt, der für mehr anspruchsvolle Kommentare in Foren und Blogs sorgen soll. Google Perspective heißt das Angebot, das als Programmierschnittstelle (API) kostenlos zur Verfügung steht – und nun von jedem genutzt werden kann.

Die Idee: Ein selbstlernende Software kontrolliert jeden neuen Forumseintrag, ob er Pöbeleien oder Angriffe enthält – oder ob er sich inhaltlich mit einem Text oder Kommentare eines Vorgängers auseinandersetzt. So wie ein Spam-Filter beurteilt, ob ein Eintrag eher Spam (Werbung) ist oder nicht, legt Google Perspective mit einem Score (Punktesystem) fest, ob ein Kommentar eher angemessen oder unangemessen ist.

Hilfe beim Aufräumen

Anschließend kann die Forums-Software oder der Betreiber entscheiden, ob der Kommentar erscheint oder unterdrückt wird. Das System lernt dazu, unter anderem, indem Foren der New York Times ausgewertet werden. Hier sortieren auch Menschen Beiträge heraus.

Die Software lernt so, welche Begriffe „giftig“ sind und welche nicht – und in welchem Kontext. Das Projekt scheint mir einen guten Ansatz zu haben. Es steht noch am Anfang, könnte aber dafür sorgen, die Flut von unangmessenen Kommentaren einzudämmen – und damit möglicherweise auch die Motivation, einfach drauf los zu trollen oder Social Bots zu entwickeln.

Erst lesen, dann kommentieren

Interessant ist aber auch der Ansatz der norwegischen Tech-Blogs NKRBeta: Wer hier einen Beitrag kommentieren möchte, muss kurz vor dem Ausfüllen der Kommentarspalte in einem Miniquizz zwei, drei Fragen beantworten – und zwar keine Rechenaufgaben, sondern Fragen zum Inhalt des Textes.

Die Idee: Nur, wer den Text wirklich gelesen hat (und nicht nur Headline und zwei Sätze), kennt die Antworten. Die Erfahrung der Redakteure: Wer einen Text komplett liest und versteht, neigt weniger zu Pöbeleien und Agitation. Grundsätzlich eine schöne Idee. Bedeutet aber natürlich aber auch mehr Aufwand für jeden, der etwas kommentieren will.