KI Training: Fotograf setzt Löschung seiner Bilder durch

von | 03.05.2023 | Digital

KI-Systeme wie ChatGPT, Midjourney oder Claude werden mit Millionen von Bildern und Texten aus dem Internet trainiert. Doch wer fragt eigentlich die Urheber um Erlaubnis? Ein wegweisender Fall zeigt: Fotografen und Künstler wehren sich erfolgreich gegen die unerlaubte Nutzung ihrer Werke.

Künstliche Intelligenz ist 2026 aus unserem Alltag nicht mehr wegzudenken. Von der Texterstellung über Bildgenerierung bis zur Spracherkennung – KI-Tools sind überall. Doch was viele nicht wissen: Diese Systeme wurden mit Inhalten trainiert, die oft ohne Zustimmung der Urheber verwendet wurden.

Ein aktueller Fall aus Deutschland macht deutlich, wie sich das Blatt wendet. Immer mehr Kreative fordern ihre Rechte ein und zwingen KI-Unternehmen zum Umdenken.

Midjourney produziert erstaunliche Fotos und Aufnahmen

Midjourney produziert erstaunliche Fotos und Aufnahmen

Berliner Fotograf setzt Zeichen

Ein Berliner Fotograf erhielt 2025 eine überraschende Nachricht: Seine Bilder waren Teil eines Trainingsdatensatzes für KI-Bilderkennungssysteme geworden. Das Unternehmen „V7 Labs“ hatte seine Fotos von einer Stockfoto-Plattform abgegriffen und für das Training ihrer KI-Algorithmen verwendet – ohne zu fragen.

Der Fotograf war empört. Seine Bilder sollten nur für kommerzielle Zwecke von anderen Nutzern verwendet werden, nicht als Futter für KI-Systeme. Er befürchtete, dass seine Werke zur Entwicklung von Überwachungstechnologien oder anderen fragwürdigen Anwendungen beitragen könnten.

Seine Forderung war klar: Löscht meine Bilder aus euren Trainingsdaten!

Der Paradigmenwechsel bei KI-Training

Was 2023 noch undenkbar schien, ist heute Realität: KI-Unternehmen können nicht mehr einfach alle verfügbaren Daten aus dem Internet abgreifen. Neue EU-Gesetze und erfolgreiche Klagen haben die Regeln grundlegend geändert.

Die EU-KI-Verordnung, die 2024 in Kraft trat, verpflichtet Unternehmen zur Transparenz über ihre Trainingsdaten. Gleichzeitig müssen sie nachweisen, dass sie die Urheberrechte respektieren. Verstöße können Millionenstrafen nach sich ziehen.

Auch in den USA bewegt sich etwas: Mehrere Sammelklagen gegen OpenAI, Stability AI und andere haben dazu geführt, dass diese Unternehmen Opt-out-Mechanismen einführen mussten. Künstler und Fotografen können nun verlangen, dass ihre Werke aus zukünftigen Trainingsdurchläufen ausgeschlossen werden.

Neue Tools für Kreative

2026 stehen Urhebern verschiedene Werkzeuge zur Verfügung, um ihre Rechte durchzusetzen:

Glaze und Nightshade: Diese Tools „vergiften“ Bilder auf eine für Menschen unsichtbare Weise, sodass KI-Systeme falsche Informationen lernen, wenn sie die Bilder verwenden.

Have I Been Trained: Diese Website zeigt euch, ob eure Bilder in bekannten KI-Trainingsdatensätzen enthalten sind. Über 5 Milliarden Bilder aus dem LAION-Datensatz sind durchsuchbar.

C2PA-Standard: Neue Kameras und Bildbearbeitungsprogramme unterstützen diesen Standard, der Metadaten über Urheberschaft und Nutzungsrechte direkt in Bilddateien einbettet.

Rechtliche Erfolge: Der Berliner Fotograf bekam schließlich recht. V7 Labs musste seine Bilder aus ihren Datensätzen entfernen und eine Entschädigung zahlen. Ein Präzedenzfall, der anderen Kreativen Mut macht.

KI-Unternehmen reagieren

Der Druck zeigt Wirkung. Adobe hat bereits 2024 angekündigt, nur noch lizenzierte Inhalte für das Training seiner KI-Tools zu verwenden. OpenAI arbeitet an einem System, mit dem Urheber ihre Werke aus zukünftigen GPT-Versionen ausschließen können.

Stability AI, die Firma hinter Stable Diffusion, bietet seit 2025 eine „Ethical AI“-Version an, die ausschließlich mit lizenzierten Inhalten trainiert wurde. Der Haken: Diese Version kostet deutlich mehr als die ursprüngliche.

Midjourney hat reagiert und einen „Creator Fund“ eingerichtet. Künstler, deren Werke nachweislich im Training verwendet wurden, erhalten eine Entschädigung.

Was das für euch bedeutet

Als Kreative habt ihr heute mehr Rechte und Möglichkeiten denn je:

  • Prüft regelmäßig, ob eure Werke in KI-Datensätzen landen
  • Nutzt Schutztools wie Glaze bei wichtigen Arbeiten
  • Versetzt eure Bilder mit klaren Lizenzangaben
  • Informiert euch über eure Rechte nach der EU-KI-Verordnung

Gleichzeitig solltet ihr realistisch bleiben: KI-Entwicklung ist nicht aufzuhalten. Aber sie muss fair und transparent ablaufen. Der Berliner Fotograf hat gezeigt, dass sich Widerstand lohnt.

Die Zeiten, in denen KI-Unternehmen ungestraft alles verwenden konnten, was im Internet zu finden ist, sind vorbei. 2026 beginnt eine neue Ära des ethischen KI-Trainings – dank mutiger Kreativer, die für ihre Rechte kämpfen.

Zuletzt aktualisiert am 18.02.2026