KI-Experiment auf Reddit: Forscher lassen Chatbot diskutieren – ohne Zustimmung der Nutzer

von | 08.05.2025 | KI, Social Networks

Was passiert, wenn Forscher Künstliche Intelligenz heimlich in Online-Diskussionen einschleusen? Genau das ist auf der Plattform Reddit geschehen – und sorgt jetzt für erheblichen Wirbel. Denn die betroffenen Nutzer wussten nichts davon. Der Fall zeigt, wie dringend wir Regeln für den Einsatz von KI brauchen.

Stellen Sie sich vor: Sie führen online eine Diskussion – sachlich, argumentativ, vielleicht sogar kontrovers. Ihr Gegenüber wirkt klug, reflektiert, reagiert auf Ihre Argumente und bringt neue Perspektiven ein. Und erst am Ende – oder gar nicht – erfahren Sie: Das war gar kein Mensch, sondern eine Maschine. Eine Künstliche Intelligenz.

Genau das ist auf der Plattform Reddit passiert, einem der weltweit größten Diskussionsforen mit über 50 Millionen aktiven Nutzern täglich. Forscher – mutmaßlich von der Universität Zürich – haben dort ein Experiment durchgeführt, das nun scharfe Kritik auslöst. Ihr Ziel: Eine KI sollte lernen, wie man Menschen in Diskussionen überzeugt. Dafür hat sich der Bot in echte Gespräche eingeschaltet – ohne Zustimmung der Beteiligten.

Reddit: Forums-Plattform kommt nach Deutschland

Die KI mischte sich in Diskussionen ein

Die Details hat die Rechercheplattform Das Netz ist politisch (dnip.ch) aufgedeckt: Im Subforum „Change My View“ (auf Deutsch etwa: „Ändere meine Meinung“) wurde eine KI darauf trainiert, in Diskussionen mitzuschreiben und gezielt Meinungen zu beeinflussen. Das klingt zunächst nach einem spannenden Forschungsvorhaben – das Problem: Die anderen Teilnehmer wussten nichts davon.

Die Nutzer gingen davon aus, mit echten Menschen zu reden. Tatsächlich saß ihnen ein Chatbot gegenüber, der mit modernster Sprach-KI wie ChatGPT arbeitete. Die KI argumentierte, stellte Rückfragen, widersprach höflich – all das mit dem Ziel, andere zum Umdenken zu bewegen.

Das Experiment lief laut dnip.ch über mehrere Wochen – angeblich ohne Einwilligung von Reddit oder den Nutzern. Zwar sind Inhalte auf Reddit grundsätzlich öffentlich, doch aktive Teilnahme durch eine KI ohne Kennzeichnung wirft viele ethische Fragen auf.

Forschung ohne Einwilligung – ein Vertrauensbruch

Gerade in der Wissenschaft gilt: Wer mit Menschen arbeitet, braucht deren informierte Zustimmung. Diese sogenannte informed consent ist internationaler Standard – ob in der Medizin, Psychologie oder eben in Sozialforschung. Wenn diese Zustimmung fehlt, ist das Experiment nicht nur fragwürdig, sondern in vielen Fällen schlicht unzulässig.

Noch schwerer wiegt der Vertrauensverlust: Wenn Menschen nicht wissen, ob sie online mit echten Personen oder KI-Systemen sprechen, verlieren sie das Vertrauen in digitale Diskussionsräume. Und Vertrauen ist im Internet ohnehin ein knappes Gut – gerade in Zeiten von Fake News, Deepfakes und Desinformationskampagnen.

Darf KI das? Was ethisch erlaubt ist – und was nicht

Natürlich braucht Forschung mit KI Freiräume. Es ist wichtig, dass wir Maschinen beibringen, wie Argumentation, Rhetorik und Meinungsbildung funktionieren. Aber diese Forschung muss transparent und verantwortungsvoll ablaufen. Wenn eine KI aktiv in den Diskurs eingreift, dann müssen alle Beteiligten davon wissen.

Es gibt einen entscheidenden Unterschied zwischen beobachten und eingreifen: Eine KI, die mitliest und analysiert, bleibt im Hintergrund. Eine KI, die mitredet, beeinflusst den Verlauf eines Gesprächs aktiv – und das hat Konsequenzen.

Wer so etwas ohne Kennzeichnung durchführt, überschreitet eine Grenze. Es geht nicht nur um akademische Prinzipien, sondern auch um digitale Selbstbestimmung. Menschen müssen wissen, mit wem sie reden – das gilt offline genauso wie online.

Welche Verantwortung tragen Plattformen wie Reddit?

Auch die Plattform Reddit steht in der Kritik. Denn sie bietet die technische Grundlage für solche Experimente – und hat bislang nicht offengelegt, ob sie von dem Bot wusste oder nicht. Zwar sind Reddit-Diskussionen öffentlich zugänglich, doch viele Foren haben klare Regeln, die automatisiertes Verhalten einschränken.

Reddit und andere Plattformen müssten deutlich stärker regulieren, welche Art von KI-Interaktion erlaubt ist – und wie diese kenntlich gemacht wird. Ein Bot-Label oder eine automatische Erkennung wäre ein sinnvoller erster Schritt. Denn je mehr KIs mitdiskutieren, desto wichtiger wird Transparenz.

Was muss sich jetzt ändern?

Der Vorfall macht klar: Wir brauchen klare Regeln für den Einsatz von KI im öffentlichen Raum. Dazu gehören:

  • Kennzeichnungspflicht: Wenn eine KI an einem Gespräch teilnimmt, muss das klar erkennbar sein.
  • Ethik-Standards für Forschung: Auch digitale Studien brauchen informierte Zustimmung – wie in jeder anderen Forschung.
  • Verantwortung bei Plattformen: Reddit, X, Facebook und Co. müssen ihre Tools verbessern, um missbräuchliche KI-Nutzung zu erkennen und zu verhindern.
  • Aufklärung und Medienkompetenz: Nutzerinnen und Nutzer müssen lernen, KI zu erkennen – und kritisch mit digitalen Gesprächspartnern umzugehen.

Der Mensch muss wissen, mit wem er spricht

KI kann ein mächtiges Werkzeug sein – auch in der Forschung. Aber Macht braucht Kontrolle. Wenn wir zulassen, dass KIs unbemerkt in unsere Gespräche eindringen, verlieren wir nicht nur die Übersicht, sondern auch das Vertrauen. Es geht nicht darum, Technik zu verbieten – sondern sie verantwortungsvoll einzusetzen.

Der Vorfall auf Reddit ist ein Weckruf: Wir müssen jetzt handeln, bevor aus einem Forschungsexperiment ein gesellschaftliches Problem wird.