Lerne KI in neuem Online-Kurs, jetzt starten.

KI erstellt hyperrealistische Porträts von Menschen, die nie existiert haben

von | 19.02.2019 | Internet

Künstliche Intelligenz (KI) hat eine neue Dimension der Bilderzeugung erreicht. Was früher Science-Fiction war, ist heute Realität: KI-Systeme erstellen hyperrealistische Porträtfotos von Menschen, die niemals gelebt haben. Diese Technologie hat sich seit 2019 dramatisch weiterentwickelt und stellt unsere Wahrnehmung von Realität grundlegend infrage.

Wir sind gut beraten, unseren Augen nicht mehr zu trauen. Was früher mit Photoshop mühsam retuschiert wurde, erledigen heute KI-Systeme in Sekunden – und das in einer Qualität, die selbst Experten täuscht. Doch ab sofort sollten wir davon ausgehen, dass Bilder nicht nur geschönt werden, sondern vollständig erfunden sein können.

Generative KI revolutioniert die Bilderzeugung

Die Technologie dahinter heißt GANs (Generative Adversarial Networks) und wurde durch moderne Diffusionsmodelle wie Midjourney, DALL-E 3 und Stable Diffusion abgelöst. Diese Systeme analysieren Millionen von Gesichtern und lernen dabei die Gesetzmäßigkeiten menschlicher Physiognomie. Das Ergebnis: Bilder, die nicht von echten Fotos zu unterscheiden sind.

Mittlerweile gibt es zahlreiche Plattformen, die solche KI-Porträts erzeugen. Tools wie Generated Photos, Artbreeder oder This Person Does Not Exist (falls noch aktiv) zeigen eindrucksvoll, was möglich ist. Die Qualität hat sich exponentiell verbessert: Hautporen, Augenfeuchtigkeit, natürliche Asymmetrien – alles wird perfekt simuliert.

Besonders beeindruckend ist die Kontrolle über Details. Moderne KI kann nicht nur Gesichter generieren, sondern auch Alter, Emotionen, Beleuchtung und sogar den kulturellen Hintergrund gezielt steuern. Ein Prompt wie „30-jährige Frau, freundlich lächelnd, warmes Licht“ genügt, um in Sekunden ein perfektes Stockfoto zu erhalten.

Kommerzielle Nutzung boomt

Was als Experiment begann, ist längst Geschäftsmodell geworden. Werbeagenturen nutzen KI-Gesichter für Kampagnen, um Persönlichkeitsrechte zu umgehen. Spieleentwickler erstellen damit NPCs (Non-Player Characters), die nie gleich aussehen. Selbst Dating-Apps experimentieren mit KI-generierten Profilen für Testzwecke.

Der Markt für synthetische Medien wächst rasant. Plattformen wie Synthesia oder D-ID gehen noch weiter: Sie lassen KI-generierte Personen sprechen und sich bewegen. Komplette Werbevideos entstehen so, ohne dass je eine echte Person vor der Kamera stand.

Deepfakes und die dunkle Seite

Doch die Technologie hat eine Schattenseite. Deepfakes, die echte Personen in kompromittierende Situationen montieren, sind nur die Spitze des Eisbergs. Viel subtiler wirken perfekte Fake-Profile in sozialen Netzwerken. Mit KI-generierten Gesichtern, automatisch erstellten Biografien und Bot-Verhalten entstehen digitale Identitäten, die jahrelang unentdeckt bleiben.

Besonders problematisch: Staatliche Akteure nutzen diese Technologie für Desinformationskampagnen. Fake-Journalisten mit KI-Gesichtern verbreiten gezielt Falschinformationen. Social Media Plattformen kämpfen täglich gegen Tausende solcher Accounts.

Erkennungstools im Wettrüsten

Die Industrie reagiert: Tools wie FakeSpotter, Deepware Scanner oder die integrierten Erkennungsalgorithmen von Meta und Google werden ständig verbessert. Sie analysieren Bildkompressionsartefakte, unnatürliche Pixelmuster oder physiologische Unstimmigkeiten.

Doch es ist ein Wettrüsten. Während Erkennungssysteme besser werden, entwickeln sich auch die Generatoren weiter. Neue Techniken wie „Adversarial Training“ lassen KI-Systeme lernen, die Schwächen der Detektoren auszunutzen.

Rechtliche Grauzonen

Juristisch bewegen wir uns in Neuland. Wem gehören die Rechte an einem KI-generierten Gesicht? Was passiert, wenn jemand zufällig einem generierten Bild ähnelt? Die EU arbeitet an entsprechenden Gesetzen, doch die Technologie entwickelt sich schneller als die Rechtsprechung.

Einige Länder fordern bereits Kennzeichnungspflichten für KI-generierte Inhalte. Adobe hat sein „Content Authenticity Initiative“ gestartet, das Bilder mit kryptographischen Signaturen versieht. Doch durchsetzen lässt sich das nur schwer.

Tipps zum Schutz vor Fakes

Wie schützt ihr euch? Achtet auf Details: KI hat oft Probleme mit Ohren, Zähnen oder Haaren bei genauem Hinsehen. Überprüft die Quelle kritisch. Nutzt Reverse-Image-Search-Tools wie TinEye oder Google Images. Und vor allem: Entwickelt ein gesundes Misstrauen gegenüber zu perfekten Bildern.

Professionelle Tools wie Intel’s FakeCatcher oder Microsoft’s Video Authenticator können helfen, sind aber meist nicht öffentlich verfügbar. Browser-Extensions wie „AI or Not“ bieten zumindest eine erste Einschätzung.

Wir leben in einer Zeit, in der jedes Bild hinterfragt werden muss. Das klingt pessimistisch, ist aber die neue Realität. Die Technologie selbst ist neutral – entscheidend ist, wie wir sie nutzen und regulieren. Schöne neue Welt? Das liegt an uns.

Zuletzt aktualisiert am 05.03.2026

superboard small
schieb.de App Download
ebooks schlauer
Jörg Schieb bietet mit Pro, Plus und Flat digitale Newsletter, eBooks und Anleitungen für Menschen, die sich in der digitalen Welt zurechtfinden wollen.