Fast acht Jahre ist es her, dass die Bundespolizei am Berliner Südkreuz einen wegweisenden Feldversuch startete: Ein Jahr lang wurden 90.000 Passanten täglich von KI-gestützter Gesichtserkennung überwacht. Was damals als Pilotprojekt begann, ist heute Standard an deutschen Bahnhöfen – doch die grundlegenden Fragen bleiben dieselben. Wie zuverlässig arbeiten diese Systeme wirklich? Und was bedeutet das für unsere Sicherheit und Privatsphäre?
Am Berliner Südkreuz testete die Bundespolizei zwischen 2017 und 2018 erstmals großflächig computergestützte Videoüberwachung. Freiwillige wurden als „Fahndungssubjekte“ in die Datenbank eingepflegt – die vollautomatische Gesichtserkennung sollte sie beim Durchqueren des Bahnhofs identifizieren. Ein Experiment, das den Grundstein für die heutige flächendeckende Überwachungsinfrastruktur legte.
Von 80% Trefferquote zu Deep Learning Revolution
Damals meldete die Bundespolizei eine „Erfolgsquote“ von 80% – heute erreichen moderne KI-Systeme wie die von Clearview AI oder Amazon Rekognition Genauigkeitsraten von über 99%. Der Chaos Computer Club (CCC) hatte bereits 2018 vor „absichtlich geschönten“ Ergebnissen gewarnt und sollte recht behalten: Die damaligen Tests verwendeten hochaufgelöste Studiofotos statt realistischer Fahndungsbilder.
Heute nutzen Sicherheitsbehörden weit ausgefeiltere Technologien. Deep Learning-Algorithmen können auch bei schlechten Lichtverhältnissen, Teilverdeckungen oder starken Blickwinkeln zuverlässig identifizieren. Transformer-basierte Modelle wie FaceNet oder ArcFace haben die Erkennungsraten revolutioniert – allerdings auch die Überwachungsmöglichkeiten dramatisch erweitert.
Algorithmen entscheiden immer mehr – künftig auch, wer wo herumlaufen darf?
Realtime-Überwachung wird zum Standard
Was 2018 noch experimentell war, ist heute Alltag: Bundesweit scannen KI-Kameras an über 200 Bahnhöfen kontinuierlich Gesichter. Die Deutsche Bahn setzt seit 2024 auf „Predictive Security“ – Systeme, die nicht nur bekannte Gesichter erkennen, sondern auch „verdächtiges Verhalten“ bewerten. Wer zu lange an einem Ort steht, nervös wirkt oder „untypische“ Bewegungsmuster zeigt, landet automatisch auf der Watchlist.
Die damalige Fehlerquote von 0,67% klingt harmlos – bei 90.000 täglichen Passanten bedeutete das aber 600 Fehlalarme. Heute liegt diese Quote dank verbesserter Algorithmen bei unter 0,1%, trotzdem generieren allein die Münchener Bahnhöfe täglich hunderte automatische Alerts. Die Polizei kann längst nicht mehr jeden verfolgen – stattdessen erstellen KI-Systeme Risikoprofile und priorisieren selbstständig.
Von Terrorabwehr zu Alltagsüberwachung
Ursprünglich sollte die Technologie schwere Straftaten verhindern. Heute überwachen dieselben Systeme aber auch Schwarzfahrer, Hausverbote oder Corona-Regelverstöße. In China zeigt sich, wohin das führt: Das Social Credit System bewertet Bürger anhand ihres Verhaltens im öffentlichen Raum. Wer an der falschen Stelle steht, verliert Punkte – und damit Reiserechte oder Jobchancen.
Europäische Regulierungsversuche wie der AI Act von 2024 haben wenig gebracht. Zwar ist biometrische Überwachung theoretisch eingeschränkt, praktisch aber nutzen Behörden Ausnahmeregelungen für „öffentliche Sicherheit“. Das Bundesverfassungsgericht prüft aktuell mehrere Klagen gegen die flächendeckende Gesichtserkennung – ein Urteil wird 2026 erwartet.
Die unbequeme Wahrheit über KI-Überwachung
Die wirklich brisante Frage war schon 2018 richtig gestellt: Was passiert praktisch, wenn das System anschlägt? Auch bei 99% Genauigkeit bleiben fundamentale Probleme ungelöst. Kann die Polizei binnen Sekunden reagieren? Was, wenn der Algorithmus diskriminiert – was bei allen kommerziellen Systemen nachgewiesen ist?
Der Kölner Geiselnehmer von 2018 war „polizeibekannt“ – hätte ihn ein Überwachungssystem gestoppt? Unwahrscheinlich. Die meisten Straftaten entstehen spontan, nicht geplant. Wirklich gefährliche Personen meiden überwachte Bereiche oder nutzen einfache Verschleierungstaktiken.
Ausblick: Totale Transparenz bis 2030?
Trotz aller Kritik wird die Überwachung weiter ausgebaut. Bis 2030 sollen alle deutschen Innenstädte flächendeckend überwacht werden. Neue Technologien wie Gait Recognition (Gangerkennung) oder Behavioral Analytics machen selbst Masken wirkungslos. Die Frage ist nicht mehr, ob wir überwacht werden – sondern wie wir als Gesellschaft damit umgehen.
Das Südkreuz-Experiment war nur der Anfang. Was folgte, ist eine schleichende Normalisierung totaler Überwachung. Die Technologie funktioniert – die Frage bleibt, ob wir sie wollen.
Zuletzt aktualisiert am 07.03.2026






