Infinity AI erstellt Promivideos auf Knopfdruck

Infinity AI erstellt Promivideos auf Knopfdruck

Das Thema Deepfakes dreht sich immer weiter: Jetzt gibt es eine frei zugängliche KI (im Web und auf Discord), die erzeugt Videos von Prominenten wie Elon Musk – mit Stimme und Bild.

Die nächste Stufe ist erreicht.

Wir hören die Stimme von Elon Musk, wie er lässig auf einer Bühne sitzt und Lobeshymnen über diesen „Netzdenker“ bei „TiTiBi“ spricht, bei „Töne, Texte, Bilder“. Eine Radiosendung, für die ich regelmäßig arbeite.

Ihr ahnt es vermutlich schon: Es ist wieder mal KI im Spiel.

KI kann jetzt mehr oder weniger auf Knopfdruck Promis alles Mögliche sagen lassen. Aber nicht nur sagen – also sprechen –, sondern auch im Video.

Solche Videos landen in Social Media und können Verwirrung stiften. Etwa, wenn wir einen Elon Musk sehen und hören, der sich mal nicht über den Netzdenker auslässt, sondern über den Bitcoin.

Infinity AI erzeugt Videos und Stimmen

Die KI nennt sich „Infinity AI“, wörtlich also „Unendliche KI“.

Der Name ist zwar etwas übertrieben. Aber die KI setzt neue Maßstäbe. Denn zum ersten Mal kann jeder, wirklich jeder zu dieser KI hingegen, wählt sich einen Prominenten oder eine Prominente aus, und kann diese Person dann so ziemlich alles sagen lassen.

Die Liste besteht aus mehreren Dutzenden prominenten US-Amerikanern, Tech-Größen wie Elon Musk oder Mark Zuckerberg, aber auch Talk-Queen „Opra“ und einige andere TV-Moderatoren sowie Sportler und Personen aus der Unterhaltung.

Man gibt einen Text ein, der gesprochen werden soll (derzeit nur in englischer Sprache). Oder kann sich sogar einen Text von der KI erstellen lassen.

Wenige Minuten später ist das Deepfake-Video auch schon fertig.

Es ist sogar möglich, mehrere Promis hintereinander schneiden zu lassen. Hier habe ich ein Beispiel, in dem sich Mark Zuckerberg, Elon Musk und Tim Cook von Apple über diesen Kerl aus Deutschland unterhalten, der sie wie Marionetten alles sagen lassen kann.

Stimmen gut, Video – naja

Die Stimmen klingen wirklich ziemlich gut. In den Videos erkennt man die Personen auch. Aber es sieht jetzt nicht übermäßig echt oder natürlich aus…

Noch nicht. In einem halben Jahr reden wir wieder, da spielt sich das auf einem ganz neuen Level ab. Es stimmt: Die Stimmen und die Sprache sind wirklich extrem natürlich, auch unterschiedliche Betonungen und Sprechpausen. Beeindruckend.

Da sind die KIs heute schon sehr weit. Man kann sagen, dass es mittlerweile nahezu unmöglich ist, zwischen echt und unecht zu unterscheiden. Und die Videos: Auf dem kleinen Display eines Smartphones betrachtet in der Timeline von Social Media sieht alles fast normal aus.

Dafür reicht es allemal. Und die Fortschritte in diesem Bereich sind auch enorm. Beeindruckend ist, dass das alles derzeit kostenlos und mit wenig Aufwand verbunden ist.

Infinity AI hebt Deepfakes auf ein neues Level

Ja, wir sprechen andauernd über KI und Deepfakes.

Das Besondere ist, dass es zum ersten Mal für jede und jeden möglich ist, mit nahezu gar keinem Aufwand Videos zu erstellen, in denen Personen des öffentlichen Lebens sprechen.

Bis vor wenigen Monaten war das entweder nur im Labor möglich oder man musste verschiedene KIs selbst zusammenbinden, zum Beispiel die Stimmen aus der einen KI und die sprechenden Bilder aus der anderen KI.

Infinity AI zeigt, dass jetzt jeder machen kann. Ohne irgendwelche speziellen Fähigkeiten. Und das ist natürlich besorgniserregend, wenn man das zu Ende denkt.

Was tun gegen Deepfakes?

Man könnte also sagen: Deep-Fakes werden immer besser – und immer einfacher herzustellen. Was also tun?

Genau das ist der Punkt. Deep-Fakes werden zur Popkultur. Das Missbrauchspotenzial ist erheblich. Wenn sich ein Elon Musk über eine Kryptowährung auslässt zum Beispiel und man verteilt das nur unfangreich genug auf Social Media, hat das das Potenzial, die Kurse nach oben oder unten zu verändern.

Infinity AI ist deswegen ein weiterer Beleg dafür, dass uns das Thema Depp-Fakes immer näher auf den Pelz rückt. Zuerst waren Bilder, dann Stimmen, jetzt kommen die Videos. Nicht mehr lange, und KI ist in der Lage, jede nur denkbare Situation auch mit Prominenten zu simulieren.

Google hat mit Lumière und OpenAI mit Sora schon KIs am Start, die sehr bald bis zu 60 Sekunden lange Clips aus dem Nichts entstehen lassen. Und jeder kann das. Ein Verbot ist sinnlos und bringt nichts. Wir müssen aber Grenzen und Regeln durchsetzen.

Und die müssen international gelten. Außerdem braucht es Medienkompetenz in allen Gesellschaftsschichten und Verfahren, um zumindest echte Medien wie Fotos oder Videos verlässlich zu kennzeichnen. Wir müssen losschreiten, denn das Tempo der KI ist rasant.

Be My Eyes: Beschreibungen per KI

Be My Eyes: Beschreibungen per KI

KI wird oft als Inhaltsgenerator verstanden: Gebt eine Anweisung, die KI führt sie aus und liefert euch ein Ergebnis. Es gibt aber auch viele Anwendungen, die versuchen, Handicaps auszugleichen. So beispielsweise Be My Eyes.

(mehr …)