Politische Werbung: Twitter schaltet keine Kampagnen mehr

Politische Werbung: Twitter schaltet keine Kampagnen mehr

Es hat sich mittlerweile herumgesprochen: Auf Sozialen Netzwerken wie Twitter oder Facebook wird eine Menge politischer Werbung platziert – sogar gegen Bezahlung. Das will Twitter jetzt beenden. Twitter will keine bezahlte politische Werbung in seinem Netzwerk mehr zulassen. Das erhöht den Druck auf Facebook und Google, es dem Konkurrenten gleichzutun. Was bedeutet das nun konkret und was wird sicj wirklich ändern?

(mehr …)

Deep Fakes: Erstellen, erkennen und abwehren

Deep Fakes: Erstellen, erkennen und abwehren

Alle reden gerade über die gefälschten, erfundenen und manipulierten Geschichten, die im SPIEGEL erschienen sind. Dass sich Texte verfremden lassen, das kann sich jeder vorstellen. Aber Fotos, Audios und Videos? Doch, das geht auch. Sogar vergleichsweise einfach – und sehr effektiv. Wir brauchen geeignete Mittel, um uns gegen so etwas zu wehren.

Jeder kann mit einer App wie Mug Life Fotos bearbeiten. Mit wenigen Handgriffen und ein paar Mal Tippen lassen sich realistisch wirkende Bewegungen ins Gesicht zaubern, etwa das Hochziehen einer Augenbraue. Das Ergebnis: eine Bildmanipulation.

Nur wenige EUR teure Apps erlauben so etwas. Ein Lächeln hinzaubern, wo eigentlich gar kein Lächeln ist. Auch das geht. Mit dieser App hier kann man praktisch jeden Gesichtsmuskel beeinflussen – in jedem Foto!

Manipulationen für wenige EUR

Beeindruckend, oder? Aber auch ein bisschen spooky, finde ich.

Es gibt Dutzende solcher Apps, mit denen selbst Laien Fotos geschickt manipulieren – und aus Fotos bewegte Bilder machen können. Auf diese Weise entstehen Videos, die Dinge zeigen, die so nicht passiert sind.

So lange solche kleineren Manipulationen im Privatbereich oder schlichtweg als Gag zum Einsatz kommen, ist alles OK. Problematisch wird es, wenn woanders manipuliert wird. Wenn wir nicht mehr erkennen können, ob wir zum Beispiel einen echten Präsidenten sehen – oder einen manipulierten Clip. Hier ein Beispiel.

Dem Präsidenten alles in den Wort legen

Wie bitte? Barack Obama sagt hier offiziell im Fernsehen: „President Trump is a total and complete dipshit“. Also: Präsident Trump ist ein Vollidiot. Das ist eigentlich nicht die Art von Obama, sieht doch aber täuschend echt aus, oder etwa nicht?

Doch das ist ein Fake. Ein so genannter Deep-Fake. Weil Inhalt, Bild und Ton gefälscht sind – und wir können es praktisch nicht erkennen. Denn wenn simple Apps fürs Smartphone schon beeindruckende Effekte hinbekommen, dann ist im Labor natürlich noch mehr möglich.

Entstanden ist das Obama-Video an der University of Washington. Grundlage ist ein Original-Video. Eine Ansprache von Obama. Danach hat sich Künstliche Intelligenz, KI, das Material angeschaut. Alles analysiert. Jedes Wort. Jede Gesichtsbewegung. Die Mimik. Es reichen einige Minuten Videomaterial. Danach kann die KI-Software den Menschen alles sagen lassen.

Ein Schauspieler spricht den Text. Das Video ist fertig. Oder aber, man legt einen komplett anderen Text unter das Video. Die KI-Software erzeugt dann das passende Video. Mit den typischen Bewegungen. Der üblichen Mimik. Das alles ist noch nicht unbedingt perfekt. Aber doch täuschend echt. Ausreichend, um im Netz oder auch im Fernsehen Millionen Menschen zu überzeugen.

Oder zu erschrecken. Zu manipulieren.

Künstliche Videos erzeugen und mit fremden Stimmen sprechen

Man kann also künstlich Videos erzeugen, die täuschend echt aussehen. Das will uns das University of Washington sagen. Sie will das nicht nutzen. Sie will uns warnen. Denn wenn die Uni das kann, dann können das Geheimdienste auch. Mühelos.

Was man wissen muss: Auch Stimmen lassen sich heute perfekt animieren.

Es gibt KI-Systeme, die lernen mit der Stimme einer jeden Person zu sprechen. Die KI-Software untersucht vorhandene Sprechtexte, 20 Minuten reichen. Schon spricht man jeden Text mit der Stimme jeder Person. Die perfekte Täuschung ist fertig.

Wir dürfen sicher sein,  dass amerikanische, russische oder chinesische Geheimdienste so etwas können.

Quellen prüfen

Was bedeutet das? Das bedeutet, es wird immer wichtiger, die Quellen zu prüfen. Wir hier im Fernsehen machen das. Was im Internet kursiert, kann von überall kommen – und eben nicht nur Fake-News, sondern auch Deep-Fake sein.

Es wird immer schwieriger, wahr von falsch zu unterscheiden. Echt von unecht. Es wird bereits an Methoden entwickelt, die Fotoaufnahmen und Videos „versiegeln“. Methoden wie TruePic oder Serelay. Fotos und Videos bekommen eine Art Siegel, wenn sie gemacht werden. Jede Art von Veränderung oder Manipulation lässt sich so erkennen.

Fotos und Videos versiegeln

Funktioniert aber nur, wenn Fotos und Videos von Anfang an entsprechend behandelt und versiegelt werden. Eine offizielle Ansprache des Präsidenten oder der Bundeskanzlerin zum Beispiel könnte man so unterscheiden von einem Fake. Immerhin.

Es gibt also viele gute Gründe, skeptisch zu sein, wenn wir im Netz etwas sehen oder hören.

Manipulation von Fotos, Audios und Videos

Manipulation von Fotos, Audios und Videos

Photoshop kennt fast jeder, zumindest vom Namen her. Photoshop hat zweifellos die Welt verändert. Mit Photoshop lassen sich Fotos retuschieren und auch ganz neue Aufnahmen arrangieren – und wir merken es kaum oder gar nicht. Aber nicht nur Fotos können manipuliert werden, sondern auch Videos – oder Audios. Berühmten Politikern irgendwas in den Mund legen? So etwas geht.

(mehr …)

Wie bit.ly Adressen manipuliert

Wie bit.ly Adressen manipuliert

URL-Shortener wie Bitly machen aus langen Webadressen ganz kurze. Die lassen sich leichter weitergeben und verbrauchen nicht so viel Platz in Tweets oder E-Mails. Deshalb sind URL-Shortener beliebt. Am beliebtesten ist bitly: Mehr als 22 Milliarden Adressen wurden damit schon kurz gemacht. Jetzt ist bekannt geworden: Bitly manipuliert manche Adressen – und schmuggelt eigene Affiliate-Daten in die Adressen, um an den Klicks zu verdienen.

(mehr …)

Wenn Facebook die Time-Line manipuliert

Wenn Facebook die Time-Line manipuliert

Im Januar 2012 hat Facebook im Rahmen einer Studie für eine Stunde die Timeline von rund 700.000 Facebook-Nutzern gezielt manipuliert und die Reaktionen der Probanden untersucht. Die Hälfte der Probanden hat ausschließlich emotional positive Beiträge von Freunden gesehen, die andere Hälfte nur negative. Was untersucht werden sollte: Wie reagieren die User? Lassen sich sich durch die Beiträge anderer emotional stimulieren?

Das Ergebnis der Studie ist Anfang Juni 2014 veröffentlich worden. Die Stimmung färbt sich ein. Doch nun gibt es Protest gegen die Vorgehensweise von Facebook, schließlich hat das Unternehmen in den natürlich Ablauf der Timeline eingegriffen – ohne die Betroffenen darüber zu informieren, geschweige sie um Erlaubnis zu bitten. Rechtlich ist die Sache unproblematisch, da Facebook in seinen Nutzungsbedingungen solche Tests ausdrücklich erwähnt. Doch es bleibt ein fader Beigeschmack.

Viele stellen sich erst durch den vorliegenden Fall die Frage, in welchem Rahmen Facebook Einfluß auf die Timeline nehmen könnte. Faktisch manipuliert Facebook ständig die Timeline. Der sogenannte Edgerank bestimmt, welche Beiträge in der Timeline erscheinen und welche nicht. Dutzende von Parameter entscheiden darüber, was in der Timeline eines Nutzers sichtbar ist. Ob die Nachrichten von Freunden erscheinen, entscheidet Facebook zum Beispiel anhand der Intensität der Beziehung und wie oft der eine auf die Beiträge des anderen reagiert. Auf diese Weise werden viele Nachrichten gefiltert und bleiben unsichtbar.

Auch die Ergebnisse in Suchmaschinen sind keineswegs ungefiltert. Google beispielsweise berücksichtigt bei den Ergebnissen, ob man mit einem Mobilgerät oder am Desktop surft. Und sofern man ein Google-Konto hat, werden auch die eigenen Nutzungsgewohnheiten und die Such-Historie mit in der Beurteilung der Treffer einbezogen. Darüber hinaus versuchen die Betreober von Webseiten, die Suchergebnisse durch sogenannte Suchmaschinenoptimierung (SEO, Search Engine Optimization) so zu optimieren, dass ihr Angebot bei Eingabe bestimmte Suchbegriffe möglichst weit oben erscheint.

Und wer im Web surft, ist immer wieder erstaunt, welche Qualität Werbebanner haben. Gestern nach Sehenswürdigkeiten in Rom gesucht, erscheinen heite Hotelangebote in Rom – und Flüge in die ewige Stadt. Vor einer Woche einen Kaufprozess abgebrochen, werden einem noch wochenlang die Schuhe gezeigt, die man doch eigentlich fast gekauft hätte. Werbetreibende bekommen eine Menge Informationen über das eigene Surfverhalten in die Hände gespielt und nutzen diese Informationen, um gezielt und optimal passende Werbung zu präsentieren. Im Internet alltägliche Prozesse.

facebook

 

News-Tweek: Manipulierte Nachrichten-Seiten als Kunst-Projekt

Viele gehen unterwegs mit ihrem Notebook oder Smartphone online. Sie nutzen kostenlose offene WLAN-Netze in Cafés, Hotels oder öffentlichen Plätzen. Niemand kommt auf die Idee, dass die Inhalte der angesteuerten Webseiten manipuliert sein könnten – doch sie könnten. Eine Gruppe von Berliner Künstlern manipuliert vereinzelt, aber gezielt offene WLAN-Netzwerke an öffentlichen Plätzen und verändert die Inhalte führender Nachrichten-Webseiten.

Möglich macht das ein kleines Gerät, das aussieht wie ein etwas zu groß geratener Zwischenstecker, der auf jede Steckdose gestöpselt werden kann. Einmal in einem Café eingestöpselt, verfremdet das unscheinbar aussehende Hightechgerät WLAN-Signale in offenen, ungeschützten Funknetzwerken.

Das „Newstweek“ getaufte Gerät schnüffelt keine Daten aus, sondern manipuliert gezielt die Inhalte von Nachrichten-Webseiten. Da werden Überschriften verändert, Zitate verfälscht oder der Sinn verfremdet. Wer mit seinem Notebook im Café auf populären Webseiten wie Spiegel Online, Newsweek, Guardian, Le Monde, El Mundo oder BBC vorbei surft, bekommt nicht das zu sehen, was andere Internetbenutzer zu sehen bekommen. Stattdessen erscheinen manipulierte Webinhalte.

Eine manipulierte BBC-Nachricht lautet zum Beispiel: „US wants Assange as head of Defence Department“. USA wollen Julian Assange zum Kopf des Verteidungsministeriums machen. Mehr als unwahrscheinlich, sieht aber im BBC-Layout absolut seriös und deshalb erst mal glaubwürdig aus.

Das Tückische daran: Als Benutzer bemerkt man die Manipulation nicht. Man setzt sich ins Café, benutzt Notebook, iPad oder Handy – und bekommt verfremdete Webseiten präsentiert. Es gibt eine Art Underground-Redaktion, die gezielt auswählt, welche Inhalte zu verfremden sind – und bestimmt auch, was verfremdet werden soll.

Es werden keine Server gehackt, sondern die Funksignale im offenen Funknetzwerk manipuliert. In einem offenen WLAN ist so etwas mehr oder weniger problemlos möglich, denn hier gibt es keinerlei Kontrolle oder Verschlüsselung. An öffentlichen Plätzen werden in der Regel unverschlüsselte Funknetzwerke verwendet, damit sich jeder bequem anmelden und das WLAN nutzen kann.

Newstweek ist ein Kunstprojekt. Einige technisch interessierte Künstler aus Berlin haben sich zusammen getan und das Projekt erdacht. Sie haben anschließend einige Sender gebaut, um in Cafés die WLAN-Signale zu manipulieren. Es gibt mittlerweile mehrere von den Geräten, sie sind vor allem in Deutschland und Frankreich im Einsatz. Niemand bemerkt es, wenn die kleinen grauen Kästen auf eine Steckdose gestöpselt werden. Doch ddas reicht schon, um die offenen Funksignale zu verfremden.

Die Betreiber von Newstweek wählen einzelne, besonders oft angesteuerte Webseiten von Nachrichtenredaktionen aus und manipulieren gezielt einzelne Artikel, nur im Detail. Diese manipulierten Inhalte erscheinen dann im Display der arglosen Internetbenutzer.

Die Idee dahinter: Die Künstler wollen zeigen, wie sensibel der Medienbetrieb ist, wie leicht sich Inhalte verfremden lassen, hier gezielt durch einen technischen Trick, durch Manipulation. Faktisch werden Nachrichten und Inhalte aber natürlich auf vielerlei Art manipuliert, durch politischen Druck zum Beispiel. Man soll sich Gedanken machen um die Fragilität der Medien. Im Internet gibt es mehr Infos über das Projekt – auch eine Bastelanleitung für die Hardware als Video.

Das Kunstprojekt zeigt, wie einfach sich Inhalte manipulieren lassen. Theoretisch können Dritte im Internet ganz generell Inhalte verfremden, auch E-Mails oder Dokumente, zumindest falls die Verbindung zwischen Server und Benutzer nicht verschlüsselt ist. Bei einer verschlüsselten, abgesicherten Verbindung ist eine Manipulation deutlich schwieriger.

Beim Download von Dateien, etwa Programmdateien, gibt es deshalb mittlerweile oft Angaben zu einer sogenannten Checksumme. Eine Art Prüfzahl, die errechnet wird, dann kann man nach dem Download feststellen, ob man auch wirklich das geladen hat, was der Anbieter zum Laden bereitgestellt hat. Die Inhalte sind dann signiert. Man kann auch E-Mails oder Nachrichten signieren, das würde eine Manipulation erschweren oder unmöglich machen. In der Praxis wird davon aber in der Regel kein Gebrauch gemacht, da zu aufwändig. Möglich ist es aber.

Projektseite Newstweek:
https://newstweek.com/