GeoSpy AI: Wo wurde das fotografiert?

GeoSpy AI: Wo wurde das fotografiert?

Eine neue KI findet heraus, wo ein Foto aufgenommen wurde – und das manchmal schon erstaunlich präzise.

Ein Bild sagt mehr als Tausend Wort?

In vielen Fällen schon – und wenn ein Foto mit einer modernen Digitalkamera oder einem Smartphone aufgenommen wurde, ist die Chance groß, dass die Kamera die genaue Position der Daten in Form von GPS-Daten in den sogenannten Metadaten des Fotos speichert (EXIF).

Wenn sich die KI sicher ist, gibt es auch eine Onlinekarte mit Markierung
Wenn sich die KI sicher ist, gibt es auch eine Onlinekarte mit Markierung

GPS-Daten in Fotos

Dabei werden die genauen GPS-Koordinaten des Aufnahmeortes gespeichert. Um diese Geolokationsdaten anzeigen zu lassen, können gängige Bildbetrachter und Bildbearbeitungsprogramme verwendet werden. In vielen Programmen findet sich eine Option, die es ermöglicht, die EXIF-Daten eines Bildes einzublenden. Dort lassen sich dann die GPS-Koordinaten sowie oftmals auch weitere Informationen wie Aufnahmedatum und -zeit ablesen.

Einige Anwendungen bieten darüber hinaus die Möglichkeit, die Geokoordinaten direkt in einer Kartenanwendung anzuzeigen, wodurch der exakte Aufnahmeort auf einer Landkarte verortet werden kann.

Diese Daten zu nutzen ist also naheliegend. Wer schlau ist, entfernt diese Metadaten, bevor ein Foto online gestellt wird – zumindest wenn man nicht möchte, dass andere erfahren, wo das Bild entstanden ist.

Doch jetzt kann auch Künstliche Intelligenz (KI) verwendet werden. KI kann mittlerweile herausfinden, wo eine Aufnahme entstanden ist – die genaue Position, in vielen Fällen auf wenige Meter genau.

Nicht immer trift Geospy ins Schwarze
Nicht immer trift Geospy ins Schwarze

Geospy analysiert die Bildinhalte

Eine neue KI namens Geospy AI verspricht genau das: Wer die öffentlich zugängliche Webseite unter geospy.ai besucht, sieht erst mal eine wenig schmuckvolle Webseite – und kann in das vorgesehene Feld per Drag and Drop ein Foto ablegen. Einfach einen Schnappschuss aus dem letzten Urlaub reinziehen und sehen, was passiert…

Geospy AI liefert bereits nach wenigen Sekunden eine erste Analyse von dem, was im Bild zu sehen ist. Die KI beschreibt die Architektur und für welches Land oder Gebiet sie typisch ist, achtet auf markante Bedachung, das Layout der Autokennzeichen, die Art der Vegetation und die Natur an sich – viele Merkmale, die für die Bestimmung eines Ortes relevant sein könnten.

Und das, ohne auf das genannte Geo-Tagging in den Fotos angewiesen zu sein.

Treffgenauigkeit fällt unterschiedlich aus

Je nachdem, wie umfangreich und konkret die ermittelten Indizien sind, gibt Geospy AI eine Einschätzung ab. Eine frontal fotografierte Hausfassade führt nicht zum Ziel, ein Foto mit mehreren Gebäuden im Hintergrund schon eher. Wenn alles passt, nennt die KI einen konkreten Ort, manchmal sogar eine genaue Position.

In diesen Fällen präsentiert die KI unmittelbar unterhalb der kurzen Beschreibung auch noch eine Karte von Google Maps, mit der genauen Position, an der das entstanden sein könnte. Ein Klick, und man kann sich an dem Ort umschauen. In bestimmten Situationen – immer dann, wenn sich die KI absolut sicher ist – wird einem sogar die Blickrichtung des Fotografen angezeigt.

Selbsttest: Mal super, mal Voodoo

Ich habe das natürlich auch selbst ausprobiert. Da hat das häufig gut geklappt: Markante Gebäude oder Gegenden wie „Covent Garden“ in London identifiziert die KI völlig korrekt.

Vor allem bei Fotos, die Gebäude einer Stadt zeigen, scheint die Trefferquote hoch, mitunter auf wenige Meter genau. In anderen Fällen wird nur der Ort genannt, in der die Aufnahme entstanden sein könnte.

Die Fotos müssen schon einige Auffälligkeiten enthalten: Ein Foto mit einem Kornfeld ohne andere Hinweise führt bislang nicht zum Erfolg. Ähnliches gilt für Aufnahmen mit austauschbaren Häuserfronten.

Noch im Betastadium

Noch befindet sich die öffentlich zugängliche KI im Entwicklungsstadium (Betaversion) und produziert auch nach Angaben des Betreibers – ein kleines US-Unternehmen aus Boston – noch häufig Fehler. Doch das Ziel scheint klar: Eine KI anbieten zu können, die in der Lage ist, treffsicher den Aufnahmeort jedes Fotos zu identifizieren.

Drei Studenten der US-Universität Stanford haben eine ähnliche KI entwickelt, die sich “Predicting Image Geolocations” nennt (kurz “PIGEON”). Dazu haben die Studenten ihre KI zur wissenschaftlichen Zwecken mit Bildern aus Google Streetview trainiert. Hier sind jede Menge Straßen und Häuser zu finden, auch viele Parke und Naherholungsgebiete.

Trainiert mit Bildern aus dem Netz

Jede KI muss trainiert werden, mit einem sogenannten „Data Set“. Vermutlich wurde auch Geospy – unter anderem – mit diesen Daten trainiert. Je besser dieses Training ausfällt, je mehr solche Bilder verarbeitet werden können, umso besser wird die KI.

Das Unternehmen hat eine Pro-Version angekündigt, die für Strafverfolgungsbehörden, Journalisten und andere Personen entwickelt wird, die regelmäßig ein Foto geografisch zuordnen wollen und müssen. Wenn die KI besser trainiert wird, könnte das auch gelingen. ChatGPT hat in den ersten Versionen auch mehr Unsinn geschrieben als heute.

Missbrauch möglich

Laut Auskunft der Macher ist Geospy gar nicht dafür gedacht, die Privatsphäre von Menschen zu verletzen, sondern im Gegenteil: Das Projekt soll die Sensibilität erhöhen.

Denn für alle, die regelmäßig Fotos in Social Media posten, bedeutet das: Vorsicht! Schon jetzt lässt sich möglicherweise der Ort ermitteln. In wenigen Monaten sogar sehr wahrscheinlich. KI-Systeme wie Geospy mögen für die Polizei nützlich sein, könnten aber auch von Stalkern missbraucht werden.

Nerd AI – Der virtuelle Assistent

Nerd AI – Der virtuelle Assistent

Die Situationen, in denen ihr einen virtuellen Assistenten am dringendsten braucht, sind die unterwegs. Die Matheformel, die sich so gar nicht lösen lassen will, der fremdsprachige Text, der einer Übersetzung bedarf, könntet ihr doch jemanden fragen. Könnt ihr, dafür ist Nerd AI da.

(mehr …)

Infinity AI erstellt Promivideos auf Knopfdruck

Infinity AI erstellt Promivideos auf Knopfdruck

Das Thema Deepfakes dreht sich immer weiter: Jetzt gibt es eine frei zugängliche KI (im Web und auf Discord), die erzeugt Videos von Prominenten wie Elon Musk – mit Stimme und Bild.

Die nächste Stufe ist erreicht.

Wir hören die Stimme von Elon Musk, wie er lässig auf einer Bühne sitzt und Lobeshymnen über diesen „Netzdenker“ bei „TiTiBi“ spricht, bei „Töne, Texte, Bilder“. Eine Radiosendung, für die ich regelmäßig arbeite.

Ihr ahnt es vermutlich schon: Es ist wieder mal KI im Spiel.

KI kann jetzt mehr oder weniger auf Knopfdruck Promis alles Mögliche sagen lassen. Aber nicht nur sagen – also sprechen –, sondern auch im Video.

Solche Videos landen in Social Media und können Verwirrung stiften. Etwa, wenn wir einen Elon Musk sehen und hören, der sich mal nicht über den Netzdenker auslässt, sondern über den Bitcoin.

Infinity AI erzeugt Videos und Stimmen

Die KI nennt sich „Infinity AI“, wörtlich also „Unendliche KI“.

Der Name ist zwar etwas übertrieben. Aber die KI setzt neue Maßstäbe. Denn zum ersten Mal kann jeder, wirklich jeder zu dieser KI hingegen, wählt sich einen Prominenten oder eine Prominente aus, und kann diese Person dann so ziemlich alles sagen lassen.

Die Liste besteht aus mehreren Dutzenden prominenten US-Amerikanern, Tech-Größen wie Elon Musk oder Mark Zuckerberg, aber auch Talk-Queen „Opra“ und einige andere TV-Moderatoren sowie Sportler und Personen aus der Unterhaltung.

Man gibt einen Text ein, der gesprochen werden soll (derzeit nur in englischer Sprache). Oder kann sich sogar einen Text von der KI erstellen lassen.

Wenige Minuten später ist das Deepfake-Video auch schon fertig.

Es ist sogar möglich, mehrere Promis hintereinander schneiden zu lassen. Hier habe ich ein Beispiel, in dem sich Mark Zuckerberg, Elon Musk und Tim Cook von Apple über diesen Kerl aus Deutschland unterhalten, der sie wie Marionetten alles sagen lassen kann.

Stimmen gut, Video – naja

Die Stimmen klingen wirklich ziemlich gut. In den Videos erkennt man die Personen auch. Aber es sieht jetzt nicht übermäßig echt oder natürlich aus…

Noch nicht. In einem halben Jahr reden wir wieder, da spielt sich das auf einem ganz neuen Level ab. Es stimmt: Die Stimmen und die Sprache sind wirklich extrem natürlich, auch unterschiedliche Betonungen und Sprechpausen. Beeindruckend.

Da sind die KIs heute schon sehr weit. Man kann sagen, dass es mittlerweile nahezu unmöglich ist, zwischen echt und unecht zu unterscheiden. Und die Videos: Auf dem kleinen Display eines Smartphones betrachtet in der Timeline von Social Media sieht alles fast normal aus.

Dafür reicht es allemal. Und die Fortschritte in diesem Bereich sind auch enorm. Beeindruckend ist, dass das alles derzeit kostenlos und mit wenig Aufwand verbunden ist.

Infinity AI hebt Deepfakes auf ein neues Level

Ja, wir sprechen andauernd über KI und Deepfakes.

Das Besondere ist, dass es zum ersten Mal für jede und jeden möglich ist, mit nahezu gar keinem Aufwand Videos zu erstellen, in denen Personen des öffentlichen Lebens sprechen.

Bis vor wenigen Monaten war das entweder nur im Labor möglich oder man musste verschiedene KIs selbst zusammenbinden, zum Beispiel die Stimmen aus der einen KI und die sprechenden Bilder aus der anderen KI.

Infinity AI zeigt, dass jetzt jeder machen kann. Ohne irgendwelche speziellen Fähigkeiten. Und das ist natürlich besorgniserregend, wenn man das zu Ende denkt.

Was tun gegen Deepfakes?

Man könnte also sagen: Deep-Fakes werden immer besser – und immer einfacher herzustellen. Was also tun?

Genau das ist der Punkt. Deep-Fakes werden zur Popkultur. Das Missbrauchspotenzial ist erheblich. Wenn sich ein Elon Musk über eine Kryptowährung auslässt zum Beispiel und man verteilt das nur unfangreich genug auf Social Media, hat das das Potenzial, die Kurse nach oben oder unten zu verändern.

Infinity AI ist deswegen ein weiterer Beleg dafür, dass uns das Thema Depp-Fakes immer näher auf den Pelz rückt. Zuerst waren Bilder, dann Stimmen, jetzt kommen die Videos. Nicht mehr lange, und KI ist in der Lage, jede nur denkbare Situation auch mit Prominenten zu simulieren.

Google hat mit Lumière und OpenAI mit Sora schon KIs am Start, die sehr bald bis zu 60 Sekunden lange Clips aus dem Nichts entstehen lassen. Und jeder kann das. Ein Verbot ist sinnlos und bringt nichts. Wir müssen aber Grenzen und Regeln durchsetzen.

Und die müssen international gelten. Außerdem braucht es Medienkompetenz in allen Gesellschaftsschichten und Verfahren, um zumindest echte Medien wie Fotos oder Videos verlässlich zu kennzeichnen. Wir müssen losschreiten, denn das Tempo der KI ist rasant.