Über eine Million Dollar erschlichen: Wenn ChatGPT zur Fälscherwerkstatt wird

von | 04.11.2025 | KI

Spesenabrechnungen sind für die meisten von uns ein lästiges Übel. Belege sammeln, einscannen, ordentlich archivieren – kein Wunder, dass viele Unternehmen diese Aufgabe längst an spezialisierte Dienstleister ausgelagert haben. Mitarbeiter reichen ihre Belege per App ein, ein paar Klicks später kommt das Geld zurück. Klingt praktisch, oder? Doch im KI-Zeitalter gibt es ein neues Problem, das Finanzabteilungen weltweit das Fürchten lehrt.

ChatGPT als Komplize

Laut einem Bericht der Financial Times nutzen immer mehr Mitarbeiter Künstliche Intelligenz, um gefälschte Quittungen zu erstellen und damit Geld von ihren Arbeitgebern zu ergaunern. Die Zahlen sind alarmierend: Der Finanzsoftwareanbieter AppZen meldet, dass im September 2025 bereits 14 Prozent aller entdeckten Betrugsfälle auf KI-gefälschte Dokumente zurückgehen. Zum Vergleich: Im Jahr zuvor gab es noch exakt null solcher Fälle.

Noch dramatischer klingen die Zahlen vom Fintech-Unternehmen Ramp. Deren Software hat innerhalb von nur 90 Tagen gefälschte Belege mit einem Gesamtwert von über einer Million US-Dollar entdeckt. Und das sind nur die aufgeflogenen Fälle – die Dunkelziffer dürfte deutlich höher liegen.

Person schreibt Notizen mit Kaffee und Unterlagen.
Cropped shot of unknown woman poses at home office makes calculations of utility payments writes down notes in spiral notebook surrounded by paper bills and cup of coffee calculates domestic expenses

Der perfekte Fake aus der Maschine

Was macht KI-generierte Fälschungen so gefährlich? Ganz einfach: Sie sind verdammt gut geworden. Chris Juneau, Senior Vice President beim Softwaregiganten SAP Concur, bringt es auf den Punkt: „Diese Belege sind so gut geworden, dass wir unseren Kunden sagen, dass sie ihren Augen nicht trauen sollen.“

Der Wendepunkt kam im März 2025, als OpenAI die Bildgenerierung in ChatGPT massiv verbesserte. Seitdem brauchen Betrüger kein Photoshop mehr, keine besonderen Grafikfähigkeiten, nicht mal technisches Know-how. Ein paar geschickte Prompts reichen aus, und ChatGPT spuckt täuschend echte Restaurantbelege aus – komplett mit zerknittertem Papier, realistischem Hintergrund, plausiblen Menüpositionen und sogar mit nachgeahmten Unterschriften.

Die KI kennt die typischen Details, die einen Beleg authentisch wirken lassen: das leicht verschmierte Thermopapier, die charakteristische Schriftart von Kassendruckern, sogar die üblichen Rechtschreibfehler auf Speisekarten. Kurzum: Was die Maschine ausspuckt, sieht aus wie das Original.

Trau, schau, wem?

Das Perfide daran: Die Technologie ist frei zugänglich. Jeder mit einem ChatGPT-Account kann theoretisch zum Spesenbetrüger werden. OpenAI weist zwar darauf hin, dass solche Fälschungen gegen die Nutzungsbedingungen verstoßen und Konsequenzen nach sich ziehen können. Aber nur, wenn man erwischt wird – und genau das ist das Problem.

Viele Unternehmen verlassen sich bei der Prüfung von Spesenabrechnungen noch immer auf menschliche Mitarbeiter. Die schauen sich dutzende, manchmal hunderte Belege pro Tag an. Klar, dass da irgendwann die Konzentration nachlässt und Details übersehen werden. Ein KI-generierter Fake zwischen vielen echten Belegen? Schwer zu erkennen, wenn man nicht gezielt danach sucht.

KI schlägt zurück

Die gute Nachricht: Wo KI für Betrug eingesetzt wird, kann sie auch zur Aufdeckung genutzt werden. Einige Softwareanbieter setzen mittlerweile auf automatisierte Prüfsysteme, die KI-Fälschungen auf die Schliche kommen sollen.

Der erste Ansatz ist simpel: Die Systeme analysieren die Metadaten der eingereichten Bilder. Oft verraten diese, ob ein Bild von einer KI generiert wurde. Doch clevere Betrüger haben auch dafür eine Lösung gefunden: Sie fotografieren das KI-generierte Bild einfach mit dem Smartphone ab. Schon sind die verräterischen Metadaten verschwunden.

Deshalb gehen die Prüfsysteme noch weiter. Sie analysieren die Inhalte der Belege mit forensischer Genauigkeit: Tauchen bestimmte Kellnernamen zu oft auf? Wiederholen sich Uhrzeiten auffällig? Passt der angebliche Restaurantbesuch überhaupt zu den Reisedaten des Mitarbeiters? Die KI kann Muster erkennen, die für Menschen kaum sichtbar sind.

Calvin Lee, Senior Director of Product Management bei Ramp, erklärt den Vorteil: „Die Tools können sich alles mit einem hohen Fokus und enormer Aufmerksamkeit für Details anschauen. Bei Menschen fallen diese Details nach einer Zeit hinten über, weil sie eben Menschen sind.“

Das Wettrüsten hat begonnen

Was wir hier beobachten, ist ein klassisches digitales Wettrüsten: Fälscher nutzen KI, Prüfer setzen KI dagegen ein. Die Fälschungen werden besser, die Erkennungsmethoden ausgefeilter. Ein Katz-und-Maus-Spiel, das vermutlich noch eine Weile so weitergehen wird.

Dabei zeigt dieser Fall exemplarisch, wie ambivalent KI-Technologie ist. Dieselbe Technologie, die uns produktiver machen und lästige Aufgaben abnehmen soll, wird missbraucht für Betrug in bislang ungeahntem Ausmaß. Die Tools sind neutral – entscheidend ist, was wir daraus machen.

Was bedeutet das für Unternehmen?

Für Firmen heißt das: Blindes Vertrauen ist keine Option mehr. Wer noch auf manuelle Prüfungen setzt, macht es Betrügern leicht. Automatisierte Systeme mit KI-gestützter Betrugserkennung sind nicht mehr nur eine nette Spielerei, sondern werden zur Notwendigkeit.

Gleichzeitig braucht es klare Richtlinien und Konsequenzen. Mitarbeiter müssen wissen, dass Spesenbetrug kein Kavaliersdelikt ist – auch dann nicht, wenn die Technologie es verführerisch einfach macht.

Die Geschichte zeigt einmal mehr: Mit jeder neuen Technologie entstehen neue Missbrauchsmöglichkeiten. Die Frage ist nicht, ob wir KI einsetzen, sondern wie wir verantwortungsvoll damit umgehen. Bei Spesenabrechnungen hat das Wettrüsten gerade erst begonnen.