Eine PR-Agentur aus London spricht gezielt Influencer an – und bietet ihnen Geld an, wenn sie vor Impfstoffen warnen. Einige haben das gemacht. Nach Recherchen scheinen russische Quellen dahinter zu stecken. Ein Phänomen, das sich 2026 dramatisch verschärft hat.
Mirko Drotschmann ist nicht nur Videoblogger und mit seinem Youtube-Kanal Wissen2Go für „funk“ der ÖRR sehr beliebt, sondern auch Influencer. Allerdings kein typischer. Er hinterfragt Dinge – und macht für Geld eben längst nicht alles. 2021 hat Mirko ein unmoralisches Angebot bekommen: Er sollte im Auftrag einer Agentur Impfstoffe schlecht machen. Dafür wurde ihm Geld geboten.
Influencer erreichen oft Hunderttausende, manchmal Millionen Menschen – und sind deshalb begehrte Multiplikatoren. Es ist nicht ungewöhnlich, dass sich PR-Agenturen bei Influencern melden und sie bitten, für Geld für Produkte zu werben. Ungewöhnlich war damals noch, dass Influencer für Geld gezielt Desinformationen verbreiten sollten.
Heute, Anfang 2026, ist das leider Routine geworden. Eine PR-Agentur aus London, sie hieß „Fazze“, hatte schon 2021 diverse Influencer aus drei Kontinenten angesprochen – und ihnen Geld angeboten, wenn sie auf ihren Kanälen – etwa auf Youtube oder Instagram – gezielt Falschinformationen über Impfstoffe verbreiten.
Sie sollten behaupten, dass in ihrem Land eine große Zahl von Menschen an den Folgen einer Impfung gestorben seien – und dass sie sehr besorgt über diese Entwicklung seien. Also eine bezahlte Anti-Kampagne, die ganz bewusst für Unruhe und Verunsicherung sorgen sollte.

Das Geschäft mit der Desinformation boomt
Was 2021 noch schockierte, ist heute trauriger Alltag. Mittlerweile haben sich regelrechte Desinformations-Netzwerke etabliert. Mindestens zwei Influencer griffen damals zu: Ein brasilianischer Influencer mit drei Millionen Abonnenten und ein indischer Influencer mit 500.000 Abonnenten berichteten.
Sie zeigten Tabellen mit Todeszahlen. Angeblich seien deutlich häufiger Menschen nach bestimmten Impfungen gestorben. Zahlen, die offensichtlich die PR-Agentur aus London bereitgestellt hatte. Die Influencer erhielten ein Passwort für einen geschützten Bereich auf der Webseite der Agentur, in dem Falschinformationen und Anweisungen für die Desinformation bereitgestellt wurden.
Heute funktioniert das System noch professioneller: KI-generierte Inhalte, deepfake Videos und automatisierte Bot-Netzwerke verstärken die Reichweite. Was früher händisch koordiniert werden musste, läuft heute über ausgeklügelte Algorithmen.
Russische Spuren führen nach Moskau
Netzpolitik.org und das ARD-Magazin „Kontraste“ hatten damals recherchiert. Es handelte sich offensichtlich um eine Scheinfirma, denn einen echten Firmensitz in London hatte die Agentur nicht. Die Scheinfirma hatte vor allem russische Kunden – und auch der Geschäftsführer saß offenbar in Russland.
Keine Überraschung. Denn schon 2021 wurden auf Twitter-Konten gezielt Bedenken gegen westliche Impfstoffe gestreut – damit russische Impfstoffe besser dastanden. Heute wissen wir: Der Kreml steckt systematisch hinter solchen Kampagnen.
Die EU-Kommission hat 2025 erstmals offiziell russische Desinformations-Operationen dokumentiert. Über 200 Scheinfirmen wurden identifiziert, die gezielt westliche Gesundheitspolitik untergraben. Das Muster ist immer gleich: Vertrauen in westliche Institutionen zerstören, eigene Narrative stärken.
TikTok und die neue Generation von Desinformation
Besonders perfide: Die Zielgruppe wird immer jünger. Auf TikTok, Instagram Reels und YouTube Shorts verbreiten Mikro-Influencer mit wenigen tausend Followern Falschinformationen. Sie wirken authentischer als große Stars, kosten weniger und fliegen seltener auf.
Die Plattformen haben zwar ihre Fact-Checking-Systeme ausgebaut, aber die Desinformations-Industrie ist schneller. Neue Accounts werden binnen Stunden erstellt, Inhalte über VPN und verschleierte Server verbreitet.
Besonders zynisch: Viele junge Influencer wissen gar nicht, dass sie Teil einer Desinformations-Kampagne sind. Sie bekommen scheinbar harmlose Aufträge, „kritische Fragen“ zu stellen oder „verschiedene Meinungen“ zu präsentieren.
Wenn Influencer Asbest-Creme bewerben
Wie wenig viele Influencer hinterfragen, zeigte schon 2021 ein verstörender Test: Ein Youtuber stellte ein Pseudo-Produkt her, eine angebliche Gesichts-Creme – und bot sie verschiedenen Influencerinnen an. Er bot Geld, wenn sie die vollkommen wirkungslose Creme jubelnd vorstellen.
In Wahrheit war es Gleit-Creme. Auf dem Etikett standen die Inhaltsstoffe, darunter auch „Asbest“, „Uran“ und „Pipi-Kaka-Seed-Oil“. Das hielt einige Influencerinnen nicht davon ab, die Creme zu bejubeln. Was zeigt: Einige Influencerinnen und Influencer tun für Geld wirklich alles.
Heute ist das Problem noch größer geworden. Studien zeigen: 70 Prozent der deutschen Micro-Influencer prüfen beworbene Produkte nicht eigenständig. Sie verlassen sich auf die Angaben der Auftraggeber.
Neue Gesetze, alte Probleme
Die Politik hat reagiert: Der Digital Services Act der EU verpflichtet Plattformen zu schärferen Kontrollen. Deutschland hat 2024 das Influencer-Marketing-Gesetz verschärft. Influencer müssen jetzt bei bezahlten Gesundheitsinhalten eine Haftung übernehmen.
Dennoch bleibt das Problem: Die Desinformations-Industrie ist global vernetzt und hochprofessionell. Sie nutzt KI, um authentische Inhalte zu erstellen, und moderne Targeting-Methoden, um genau die richtigen Zielgruppen zu erreichen.
Verbraucher sollten deshalb grundsätzlich skeptisch sein, wenn Influencer über Gesundheitsthemen sprechen – besonders wenn sie zu bestimmten Verhaltensweisen raten oder vor etwas warnen. Ein Blick auf seriöse Quellen wie das Robert Koch-Institut oder die Bundeszentrale für gesundheitliche Aufklärung hilft meist weiter.
Das Internet vergisst nicht – aber es lernt leider auch nicht dazu. Die Fazze-Affäre von 2021 war nur der Anfang einer Entwicklung, die heute unsere gesamte Informationslandschaft bedroht.
[av_video src=’https://www.youtube.com/watch?v=BpdgOzFO7wE‘ mobile_image=“ attachment=“ attachment_size=“ format=’16-9′ width=’16‘ height=’9′ conditional_play=“ av_uid=’av-88h4zz5′]
Zuletzt aktualisiert am 25.02.2026

