Dänemark will ein Copyright auf das eigene Gesicht, den eigenen Körper und die eigene Stimme einführen – wegen KI
Stell dir vor, du scrollst durch YouTube und siehst plötzlich ein Video von dir selbst – wie du für dubiose Krypto-Investments wirbst oder peinliche Aussagen machst. Das Video ist perfekt, deine Stimme klingt authentisch, nur: Du warst nie da. Willkommen in der Deepfake-Realität 2025.
Was früher Science-Fiction war, ist heute Alltag geworden. Deepfake-Vorfälle haben sich 2023 um das 31-fache gesteigert – ein Anstieg von 3000 Prozent. Die Technologie ist so zugänglich geworden, dass jeder mit einem Smartphone und zehn Minuten Zeit täuschend echte Fälschungen erstellen kann.

Der Deepfake-Tsunami rollt an
Die Zahlen sind erschreckend: Etwa ein Viertel der Menschen kann Deepfake-Audio nicht von echten Aufnahmen unterscheiden. Noch dramatischer: 71 Prozent der Befragten weltweit wissen nicht einmal, was ein Deepfake ist. Das macht Millionen von Menschen zu wehrlosen Opfern.
Besonders perfide wird es bei den neuen „Schockanruf“-Betrügereien. Kriminelle nutzen KI-generierte Stimmsamples von Angehörigen, um ihre Opfer zu täuschen – emotional extrem belastend und finanziell verheerend. Oder die Masche mit Prominenten wie Uschi Glas, die scheinbar für lukrative Geldanlagen werben, während sie in Wahrheit nichts davon wissen.
Die Technik macht’s möglich: Mit wenigen Sekunden Audiomaterial lassen sich heute beliebige Texte in jeder Stimme generieren. Was früher Wochen dauerte und Expertenteams brauchte, schafft heute eine kostenlose App in Minuten.

Dänemarks radikaler Gegenschlag
Während andere Länder noch überlegen, prescht Dänemark vor. Das Land will als erstes in Europa ein Copyright auf das eigene Gesicht, die eigene Stimme und den eigenen Körper einführen. Das ist revolutionär, weil es weit über klassische Persönlichkeitsrechte hinausgeht.
Der Plan ist clever durchdacht: Betroffene können die Entfernung von Deepfakes fordern und Schadenersatz verlangen. Bei Weigerung drohen den Plattformen „schwere Geldstrafen“. Das setzt die Tech-Giganten unter Druck, weil plötzlich jeder Einzelne klagen kann – nicht nur Prominente mit teuren Anwälten.
Kulturminister Jakob Engel-Schmidt bringt es auf den Punkt: „Jeder hat das Recht auf seinen eigenen Körper, seine eigene Stimme und seine eigenen Gesichtszüge“. Das klingt selbstverständlich, ist aber rechtlich eine kleine Revolution.
Wo der EU AI Act versagt
Der EU AI Act, der seit August 2024 in Kraft ist, greift hier zu kurz. Deepfakes werden nur als „Limited Risk“ klassifiziert – das bedeutet lediglich Transparenzpflichten, aber keine Verbote. Anbieter müssen nur kennzeichnen, wenn Inhalte KI-generiert sind.
Das Problem: Diese Kennzeichnungspflicht funktioniert nur bei legalen Anbietern. Kriminelle interessiert das nicht. Außerdem sind die Strafen zwar hoch – bis zu 15 Millionen Euro oder 3 Prozent des Jahresumsatzes –, aber die Durchsetzung ist schwierig.
Hier zeigt sich ein fundamentales Problem der EU-Regulierung: Sie zielt auf Unternehmen ab, die sich ohnehin an Gesetze halten. Die wirklichen Schurken operieren im Untergrund und lachen über Brüsseler Vorschriften.

Die Grenzen des dänischen Ansatzes
Dänemarks Idee ist sympathisch, aber auch sie hat Schwächen. Satire und Parodie sollen weiterhin erlaubt bleiben – aber wer entscheidet, was noch lustig ist und was schon schädlich? Das Deepfake der dänischen Ministerpräsidentin, die angeblich alle Feiertage abschaffen will, galt als politische Satire. Hätte das neue Gesetz es verhindert?
Außerdem ist das Gesetz nur so stark wie seine Durchsetzung. Die deutschsprachigen Deepfake-Betrüger sitzen meist in Osteuropa und nutzen VPN-Tunnel. Wie will Dänemark gegen Server in Moldawien oder Nordmazedonien vorgehen?
Das Wettrüsten hat begonnen
Die Realität ist: Wir stehen erst am Anfang. Es gibt mittlerweile Echtzeit-Deepfakes für Videoanrufe – jemand kann während eines Gesprächs live das Gesicht einer anderen Person tragen. Das öffnet völlig neue Dimensionen des Betrugs.
Gleichzeitig verbessert sich die Erkennungstechnologie. Forscher der Uni Zürich haben herausgefunden, dass das Gehirn anders auf Deepfake-Stimmen reagiert als auf echte – auch wenn wir den Unterschied bewusst nicht erkennen. Das könnte zu besseren Detektions-Tools führen.
Was du jetzt tun kannst
Bis die Politik handelt, bist du auf dich gestellt. Hier ein paar Tipps:
Entwickle gesunde Skepsis: Wenn ein Prominenter plötzlich für obskure Investments wirbt, prüfe die Originalquelle. Bei spektakulären Aussagen von Politikern immer nachfragen.
Sei vorsichtig bei Anrufen: Auch wenn die Stimme vertraut klingt, frage bei wichtigen Entscheidungen über einen anderen Kanal nach. Kriminelle nutzen die emotionale Bindung zu Angehörigen aus.
Nutze Erkennungs-Tools: Apps wie „Deepware Scanner“ oder „Reality Defender“ können verdächtige Inhalte identifizieren. Aber Achtung: Das ist ein Wettrüsten – was heute erkannt wird, ist morgen vielleicht schon überholt.

Das größere Bild
Dänemarks Vorstoß ist mutig und notwendig. Das Land hofft, während seiner EU-Ratspräsidentschaft andere Länder zu überzeugen, ähnliche Gesetze einzuführen. Das wäre ein wichtiger Schritt.
Aber letztendlich brauchen wir mehr als nur Gesetze. Wir brauchen eine gesellschaftliche Antwort auf eine technologische Herausforderung, die unsere Vorstellung von Wahrheit und Vertrauen fundamental erschüttert. Solange 71 Prozent der Menschen nicht wissen, was ein Deepfake ist, haben Betrüger und Manipulateure leichtes Spiel.
Die Deepfake-Bedrohung ist real und sie wächst exponentiell. Dänemarks Copyright-Ansatz ist ein wichtiger Baustein, aber nur der Anfang. Die Frage ist: Sind wir bereit für eine Welt, in der wir nicht mehr wissen, wem wir trauen können?