Datensicherung: Ist das überhaupt noch ein Thema?

von | 22.07.2016 | Tipps

Ob Smartphone, Tablet oder Laptop – für nahezu jeden ist es heute selbstverständlich, neuartige Informations-, Kommunikations- und Unterhaltungstechnologien zu nutzen – und das jederzeit übers Internet.

Dass wir mit jeder runtergeladenen App, mit jedem TikTok-Video, Instagram-Post und mit jedem Datentransfer via WhatsApp, Telegram und Co. auch jedes Mal persönliche Daten preisgeben und sogar umfangreiche Zugangsberechtigungen erteilen, ist den meisten bewusst. Doch stört das noch irgendwen? Was sagen Experten 2026?

KI macht Datenschutz noch brisanter

Eigentlich ist es paradox. Während der Ruf in der Gesellschaft nach mehr Sicherheit, Schutz und Kontrollen immer lauter wird, wird der Umgang mit den persönlichen Daten immer offenherziger. Bekannte Online-Dienste werden mit einer derartigen Selbstverständlichkeit genutzt, dass sich kaum einer mehr ernsthaft die Frage stellt, ob seine Daten überhaupt vor Fremdzugriffen geschützt sind.

Seit der Einführung der DSGVO 2018 hat sich zwar das Bewusstsein geschärft, aber die Praxis zeigt: Cookie-Banner werden weggeklickt, AGBs nicht gelesen und „Alle akzeptieren“ ist der Standardweg. Besonders brisant wird es mit KI-Diensten wie ChatGPT, Claude oder Gemini. Hier landen oft sensible Daten direkt in den Trainingsmodellen.

Der neuste Trend stellt nun wieder sehr deutlich zur Schau, mit welcher Gleichgültigkeit Nutzer ihre privaten Daten preisgeben. Mit Apps wie BeReal, Clubhouse oder den neuesten AR-Filtern auf Instagram und TikTok erteilt jeder Nutzer Freigaben für Gesichtserkennung, Standortdaten und Verhaltensanalysen – und das freiwillig. Die Pokémon-Go-Welle war nur der Anfang.

brand-tasamrong-1089986_1920

Nicht erst seit diesen Apps kann der Smartphone-Besitzer überwacht werden. Diese Möglichkeiten gab es auch schon vorher. Jedes Smartphone, ob nun bewusst oder nicht, kann zu jeder Zeit mit einfachsten Mitteln geortet und ausgelesen werden. Die vermeintliche Gleichgültigkeit entpuppt sich eher als eine Form der Resignation. Warum dagegen ankämpfen, wenn die Schlacht eh schon verloren ist. Doch ist das wirklich so?

DSGVO und neue EU-Gesetze setzen Maßstäbe

Die wesentliche Rechtsgrundlage hat sich seit 2018 dramatisch verschärft. Neben der DSGVO gelten inzwischen der Digital Services Act (DSA) und der Digital Markets Act (DMA). Diese EU-Gesetze haben Milliardenstrafen zur Folge gehabt – Meta zahlte allein 2023 über 1,2 Milliarden Euro.

Verstöße können bis zu 4% des weltweiten Jahresumsatzes kosten. Das zeigt Wirkung: Apple führte App Tracking Transparency ein, Google kündigt das Ende der Third-Party-Cookies an (wieder verschoben auf 2025), und TikTok steht in Europa unter Dauerdruck.

Experten warnen vor KI-getriebenen Angriffen

In einem Punkt sind sich alle einig: Die IT-Kriminalität hat in den vergangenen Jahren durch KI noch einmal einen Quantensprung gemacht. Deepfakes, KI-generierte Phishing-Mails und automatisierte Social Engineering betreffen sowohl Privatpersonen als auch Unternehmen massiv.

IT-Sicherheitsexperten sehen 2026 besonders drei Trends: Erstens nutzen Kriminelle ChatGPT und Co., um perfekte Phishing-Mails zu verfassen. Zweitens entstehen durch Deepfake-Technologie täuschend echte Video- und Audio-Nachrichten für Betrugsversuche. Drittens werden KI-Tools selbst zur Schwachstelle, wenn sensible Unternehmensdaten in öffentliche AI-Systeme eingegeben werden.

Durch langjährige Erfahrung wissen Sicherheitsexperten, dass IT-Security nach wie vor ein heißes Eisen ist und von vielen Unternehmen vernachlässigt wird. Zumindest so lange, bis sensible Daten eines Tages durch Ransomware verschlüsselt oder via Darknet verbreitet worden sind.

Doch eines bestätigen alle Fachleute: „Das Sicherheitsleck liegt nicht immer in der Technik. Oft steckt der Mensch dahinter, nicht immer mit böser Absicht.“ Statistiken belegen, dass die Hälfte aller Wirtschaftskriminellen aus den Reihen der Mitarbeiter kommen.

Social Engineering wird immer raffinierter

Zum einen gibt es bewusst handelnde Täter, die aus Wut oder Gier sensible Firmendaten preisgeben. Zum anderen sind es jedoch auch loyale Mitarbeiter, die zu naiv auf KI-generierte Betrugsversuche hereinfallen.

Ein neuer Trick dabei sind Deepfake-Videoanrufe, bei denen vermeintliche Vorgesetzte Mitarbeiter bitten, Zugänge freizugeben oder Überweisungen zu tätigen. 2024 überwies ein Angestellter in Hongkong 25 Millionen Dollar nach einem Deepfake-Videocall mit seinem „CFO“.

Ohne vorher die Fakten zu prüfen, werden die Daten freiwillig offengelegt. Psychologisch greifen hier die gleichen Mechanismen wie bei jedem, der eine vermeintliche Sicherheits-App runterlädt und dabei Vollzugriff auf sein Smartphone gestattet.

Prävention ist wichtiger denn je

Experten raten Unternehmen dazu, ihre Mitarbeiter für diese neuen KI-getriebenen Bedrohungen zu sensibilisieren. Zero-Trust-Architekturen, regelmäßige Phishing-Simulationen und klare Data-Governance-Richtlinien sind 2026 Standard in sicherheitsbewussten Firmen.

Für Privatpersonen empfehlen Sicherheitsexperten: Zwei-Faktor-Authentifizierung überall aktivieren, regelmäßige Datenschutz-Audits der installierten Apps und vor allem: Niemals sensible Daten in öffentliche KI-Tools eingeben. Denn ChatGPT vergisst nichts – eure Daten landen im Training der nächsten KI-Generation.

Prävention hilft dabei, Datenklau direkt zu verhindern oder im Nachhinein besser aufklären zu können. Denn nicht hinter jeder sorglosen Handlung steckt eine böse Absicht – oft nur mangelndes Bewusstsein für die neuen digitalen Realitäten.

Zuletzt aktualisiert am 07.04.2026