Videochat-Sicherheit 2026: KI macht neue Probleme

von | 01.04.2020 | Digital, Software

Schnell mal eine Videokonferenz einrichten oder mit Kollegen plaudern? Viele greifen da reflexartig zu Microsoft Teams, Zoom oder Google Meet. Diese Video-Apps sind aus unserem Alltag nicht mehr wegzudenken. Doch auch Jahre nach den ersten großen Sicherheitsskandalen bleiben viele der beliebten Video-Chat-Dienste problematisch – und neue Risiken kommen hinzu.

Videokonferenzen sind längst Standard geworden. Was während Corona aus der Not heraus entstanden ist, hat sich etabliert: Hybride Meetings, Remote-Work und digitale Sprechstunden gehören 2026 zum normalen Arbeitsalltag. Video-Chat-Systeme wie Microsoft Teams, Zoom, Google Meet, Slack Huddles oder Discord dominieren den Markt.

Aber es sprechen auch Ärzte mit ihren Patienten übers Netz. Oder Lehrerinnen und Lehrer mit ihren Lernenden. Psychotherapie per Videochat: Heute völlig normal. Selbst Gerichtsverhandlungen finden teilweise digital statt.

Video-Apps: Bequem, aber nicht sicher

Die Beliebtheit hat ihre Gründe: App installieren oder im Browser starten – fertig. Bei den meisten Diensten kann jeder mit einem simplen Link teilnehmen. Einfach. Bequem. Oft kostenlos für Privatnutzer. Zoom hat über 300 Millionen tägliche Nutzer, Microsoft Teams verzeichnet mehr als 280 Millionen monatliche Nutzer.

Doch die Schattenseiten sind geblieben – und neue sind hinzugekommen. Zoom-Bombing, also das unerlaubte Eindringen in Videokonferenzen, ist nach wie vor möglich. Kriminelle verschaffen sich Zugang zu vertraulichen Meetings und stören mit pornografischen Inhalten oder Hassbotschaften.

Neu sind ausgeklügelte KI-basierte Angriffe: Deepfake-Technologie ermöglicht es Betrügern, sich als andere Personen auszugeben. In Echtzeit können Gesicht und Stimme manipuliert werden. CEO-Fraud per Videocall wird zur realen Bedrohung für Unternehmen.

Datenschutz bleibt Achillesferse

Besonders problematisch: Viele Anbieter sammeln weiterhin massiv Nutzerdaten. Microsoft Teams analysiert Gesprächsinhalte für „Produktverbesserungen“, Google Meet wertet Metadaten aus, Zoom speichert standardmäßig Transkripte in der Cloud.

Die EU-DSGVO wird oft kreativ ausgelegt. Zoom verlagerte seine Datenverarbeitung nach Europa, nutzt aber weiterhin US-Server für bestimmte Features. Microsoft verspricht EU-Datenresidenz, transferiert aber Telemetriedaten in die USA.

Besonders heikel wird es bei sensiblen Gesprächen: Ärzte nutzen oft Consumer-Versionen ohne ausreichende Datenschutz-Zertifizierungen. Anwälte führen vertrauliche Mandantengespräche über Plattformen, die rechtlich problematisch sind.

KI macht neue Probleme

2026 integrieren alle großen Anbieter KI-Features: Automatische Transkription, Zusammenfassungen, Sentiment-Analyse. Microsoft Copilot lauscht in Teams-Meetings mit, ChatGPT analysiert Zoom-Aufzeichnungen, Google Duet wertet Meet-Gespräche aus.

Das Problem: Diese KI-Systeme lernen von euren Gesprächen. Vertrauliche Informationen fließen in Trainingsmodelle ein. Betriebsgeheimnisse, persönliche Daten, strategische Diskussionen – alles wird zur Lernmasse für Algorithmen.

Viele Nutzer wissen nicht einmal, dass ihre Gespräche KI-analysiert werden. Die Einstellungen sind oft versteckt, standardmäßig aktiviert oder nur für Premium-Accounts deaktivierbar.

Sicherere Alternativen existieren

Es gibt durchaus datenschutzfreundliche Alternativen: Jitsi Meet ist Open Source und kann selbst gehostet werden. Element (Matrix-Protokoll) bietet Ende-zu-Ende-Verschlüsselung. BigBlueButton richtet sich speziell an Bildungseinrichtungen.

Für Unternehmen gibt es spezialisierte Lösungen wie Cisco Webex (mit EU-Cloud), GoToMeeting Business oder selbst gehostete Nextcloud Talk-Installationen.

Der Haken: Diese sicheren Alternativen sind oft weniger komfortabel, teurer oder erfordern technisches Know-how. Die Netzwerkeffekte der großen Anbieter machen einen Wechsel schwer.

Praktische Schutzmaßnahmen

Wer bei den großen Anbietern bleibt, sollte wenigstens Grundregeln befolgen: Warteräume aktivieren, Meetings mit Passwort schützen, nur registrierte Nutzer zulassen. Screen-Sharing und Chat-Funktionen einschränken.

Bei sensiblen Gesprächen: KI-Features deaktivieren, automatische Aufzeichnung ausschalten, Ende-zu-Ende-Verschlüsselung aktivieren (wo verfügbar). Business-Accounts nutzen, die mehr Kontrolle über Datenschutz-Einstellungen bieten.

Für Unternehmen: Data Processing Agreements (DPA) abschließen, regelmäßige Sicherheits-Audits durchführen, Mitarbeiter über Risiken aufklären.

Regulierung hinkt hinterher

Die Politik reagiert träge: Der EU AI Act von 2024 erfasst KI in Videokonferenzen nur oberflächlich. Nationale Gesetze wie das deutsche Telekommunikationsmodernisierungsgesetz haben Lücken bei Cloud-basierten Diensten.

Ein echter „TÜV für Apps“ existiert nicht. Zertifizierungen wie SOC 2 oder ISO 27001 sind freiwillig und oft oberflächlich. Echte unabhängige Sicherheitstests finden selten statt.

Dabei wäre das dringend nötig: Wer möchte vertrauliche Gespräche führen mit dem Risiko, abgehört, analysiert oder manipuliert zu werden? Die Antwort sollte klar sein – doch die Realität sieht anders aus.

[av_video src=’https://vimeo.com/399114004′ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-8p42xwo‘]

 

Zuletzt aktualisiert am 01.03.2026