PromptLoop
News Analyse Werkstatt Generative Medien Originals Glossar KI-Modelle Vergleich Kosten-Rechner

KI-generierte Gesundheitsvideos: Wie Content Farming Leben gefährdet

KI-generierte Videos verbreiten gefährliche Gesundheitsratschläge auf Facebook und Instagram. Dokumentarfilmer Sam Tullen deckte das lukrative System dahinter auf – mit erschreckenden Ergebnissen.

KI-generierte Gesundheitsvideos: Wie Content Farming Leben gefährdet
📷 KI-generiert mit Flux 2 Pro

KI-generierte Videos mit lebensbedrohlichen Gesundheitsratschlägen fluten Facebook und Instagram — und dahinter steckt ein knallhartes Geschäftsmodell. Dokumentarfilmer Sam Tullen hat für seine Serie Disclosed undercover recherchiert und dabei ein „Geheimdokument" erhalten, das Anweisungen enthält wie: „Mach die Zuschauer glauben, sie könnten krank werden oder sterben, damit sie das Produkt kaufen." Das ist kein Einzelfall — es ist ein industriell skaliertes System namens Content Farming. Die eigentliche Frage lautet: Warum funktioniert das Geschäftsmodell so gut — und warum tun Plattformen und Regulierung so wenig dagegen?

⚡ TL;DR
  • KI-generierte Videos überschwemmen soziale Netzwerke mit gefährlichen Pseudo-Gesundheitsratschlägen, um über Affiliate-Links lukrative Provisionen abzugreifen.
  • Skrupellose Content-Farmer schüren mit erfundenen KI-Experten gezielt die Angst der Nutzer vor Krankheiten, um sie emotional zum Kauf von Produkten zu manipulieren.
  • Ohne strenge Regulierungen wie den kommenden EU AI Act und bessere Präventivmaßnahmen der Plattformen wird diese potenziell tödliche Desinformation weiter eskalieren.

Was Content Farming im Gesundheitsbereich konkret bedeutet

Content Farming bezeichnet die massenhafte Produktion minderwertiger Inhalte, die ausschließlich darauf ausgelegt sind, Klicks, Views und Werbeeinnahmen zu maximieren. Im Gesundheitsbereich nimmt das Konzept eine besonders aggressive Form an. Videos werden täglich hochgeladen, nach kurzer Zeit wieder gelöscht und durch ähnliche Inhalte ersetzt — ein endloser Zyklus, der Plattform-Moderatoren systematisch überfordert.

Tullen, der seine Rechercheergebnisse in seiner Dokumentarserie Disclosed aufbereitet, stieß auf konkrete Beispiele: Videos behaupteten, Knoblauch rektal einzuführen stärke das Immunsystem, Tomaten würden das Blut so effektiv verdünnen wie verschreibungspflichtige Herzmedikamente, Kurkuma-Suppe würde einen Knoten in 24 Stunden verschwinden lassen. Ein anderes Video empfahl, bei einem Tumor ätherische Öle zu nutzen — das Versprechen: weg in einer Woche. Wieder ein anderes behauptete, Ingwer und Apfelessig könnten verstopfte Arterien beheben, eine Mischung aus Salz, Zitrone und Zimt erzielte angeblich die Wirkung einer Liposuktion.

Diese Clips sind darauf optimiert, wie Expertenratschläge auszusehen — professionelle Aufmachung, seriös wirkende Sprecher, manchmal mit KI-generierten Avataren, die Autorität suggerieren. Das Geschäftsmodell ist simpel: Affiliate-Links in den Beschreibungen oder Kommentaren lenken Nutzer zu Produkten, für deren Kauf die Content Farmer Provisionen erhalten. Je besser die Videos performen, desto mehr klicken — und kaufen.

Das Geheimdokument: Eine Gebrauchsanweisung für Manipulation

Tullens Methode war einfach: Er gab sich als angehender Content Farmer aus und kontaktierte über drei Wochen Hunderte von Accounts. Schließlich fand er über Reverse-Suche ein LinkedIn-Profil eines Mannes namens „Bilal Roy". Dessen Beitrag war erkennbar mit KI geschrieben: überdurchschnittlich viele Emojis, charakteristische Gedankenstriche — Tullen vermutet ChatGPT als Werkzeug.

Roy behauptete, monatlich 10.000 US-Dollar durch KI-generierte Affiliate-Links zu verdienen, und bot Mentoring an. Tullen zahlte 860 US-Dollar für den Zugang. Statt eines Calls erhielt er ein „Geheimdokument", das auch der Redaktion von Metro vorlag. Darin: Anweisungen zur Nutzung spezieller Affiliate-Tracking-Links, Empfehlungen für KI-Tools zur Videoproduktion — und eine Passage, die in ihrer Klarheit erschreckend ist. Eine Seite des Dokuments beschreibt, welche Videos die meisten Affiliate-Verkäufe generieren, mit dem Hinweis: „it dont matter if lieing about the health tips or treatment just try to sell product." Eine weitere Anweisung fordert Ersteller auf, Zuschauer glauben zu machen, sie könnten krank werden oder sterben — damit sie kaufen.

Als Beweis für die Wirksamkeit schickte Roy Screenshots von Profilen mehrerer Content-Farming-Seiten, die er nach eigenen Angaben betreibt. Sie generierten zusammen mehr als 4 Millionen Impressionen pro Monat über drei Accounts. Roy versprach Tullen mindestens 6.000 US-Dollar im ersten Monat — und mehr als 10.000 US-Dollar danach. Als Tullen Roy konfrontieren wollte, war dessen LinkedIn-Profil bereits gelöscht. „Ich glaube, er macht dasselbe anderswo unter einem anderen Namen", sagt Tullen.

Warum ältere Nutzer besonders gefährdet sind

Tullen beobachtete in den Kommentarsektionen dieser Videos, wie Nutzer die falschen Ratschläge diskutierten und in Betracht zogen, sie auszuprobieren. Die Zielgruppe ist nicht zufällig gewählt: Ältere Nutzer, die mit KI-generierten Inhalten weniger vertraut sind, gelten als besonders empfänglich. Sie erkennen oft nicht, dass ein scheinbar menschlicher Experte tatsächlich ein KI-Avatar sein könnte — oder dass ein Profil mit Berufstitel und seriösem Foto schlicht erfunden ist.

Die Gefahr geht dabei weit über Geldverlust hinaus. Wenn jemand bei einem tastbaren Knoten auf den Arztbesuch verzichtet und stattdessen Kurkuma-Suppe vertraut, kann das über Leben und Tod entscheiden. Wenn jemand Tomaten als Ersatz für blutverdünnende Medikamente einnimmt, riskiert er einen Herzinfarkt oder Schlaganfall. Content Farming im Gesundheitsbereich ist potenziell tödliche Desinformation, skaliert durch KI-Werkzeuge und algorithmusgetriebene Reichweite.

Hinzu kommt ein strukturelles Problem: Die Videos werden schnell gelöscht und ersetzt. Das macht Plattform-Moderation reaktiv statt präventiv. Die BARMER hat in Aufklärungskampagnen zu Health Fake News aufgezeigt, welche Warnzeichen Nutzer erkennen sollten — absolute Heilsversprechen, Angriffe auf medizinische Institutionen, deutliche Verkaufsabsicht. Doch Aufklärung allein reicht nicht gegen ein System, das industriell skaliert.

Was dagegen spricht: Die Schwachstellen des Arguments

Man könnte einwenden, dass Content Farming kein neues Phänomen ist — schlecht recherchierte Gesundheitsratschläge gibt es im Internet seit den frühen 2000ern. Das Argument hat einen Kern Wahrheit: Fake-Gesundheitsratschläge sind nicht neu. Der Tagesspiegel dokumentiert seit Jahren Warnungen von Ärzten vor gefährlichen TikTok-Trends, etwa Empfehlungen, auf Sonnenschutz zu verzichten oder Behauptungen zu Aprikosenkernen als Krebstherapie.

Der qualitative Unterschied liegt jedoch in der Skalierbarkeit. Heute reichen ein paar Prompts an ein KI-Tool, um täglich dutzende Videos zu produzieren — mit überzeugenden Sprecherstimmen, professionell wirkenden Avataren und automatisch generierten Affiliate-Links. Vier Millionen Impressionen pro Monat über drei Accounts, wie Roy behauptete — das war früher nur mit echtem Medienbudget möglich. Zudem erschwert die Geschwindigkeit der generativen Medienproduktion die effektive Moderation.

Ein zweites Gegenargument: Nutzer können selbst filtern. Das stimmt für einen Teil des Publikums. Aber Plattform-Algorithmen sind nicht neutral: Sie belohnen Inhalte, die Emotionen triggern — und Angst vor Krankheit ist eine der stärksten Emotionen. Wer glaubt, gesunder Menschenverstand reiche als Schutz, unterschätzt, wie gut diese Videos auf psychologische Schwachstellen optimiert sind.

So What? Was DACH-Entscheider daraus ableiten müssen

Der Fall Tullen ist kein britisches Randphänomen. Das Geschäftsmodell kennt keine Grenzen: Affiliate-Programme, KI-Tools und Social-Media-Algorithmen funktionieren in Deutschland, Österreich und der Schweiz genauso wie im englischsprachigen Raum. Für Unternehmen und Plattformbetreiber im DACH-Raum ergibt sich daraus eine klare regulatorische Dimension.

Der EU AI Act, dessen Hauptteil ab dem 2. August 2026 in Kraft tritt, enthält Anforderungen für KI-generierte Inhalte — insbesondere für Deepfakes und synthetische Medien. Systeme, die darauf ausgelegt sind, Nutzer durch emotionale Manipulation zu täuschen, verstoßen gegen die Verbote unzulässiger KI-Praktiken (Art. 5). Strafen können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes betragen. In Branchen wie der Gesundheitswirtschaft steigt daher die Nachfrage nach auditierbaren Systemen.

Für Entscheider bedeutet das: Aktive Gegenmaßnahmen werden zur Pflicht. Die Empfehlungen des Change Magazins zur Erkennung falscher Gesundheitsinfos bieten einen Einstieg — aber der Druck auf Plattformen muss von regulatorischer Seite kommen. Selbstverpflichtungen haben sich als unzureichend erwiesen.

Fazit: Das System ändert sich nicht von selbst

Tullens Recherche zeigt, was passiert, wenn KI-Werkzeuge auf ein Geschäftsmodell treffen, das Scham, Angst und Gesundheitssorgen monetarisiert. Es ist eine systemische Dimension: Algorithmen verstärken, Affiliate-Programme vergüten, Plattformen moderieren zu langsam. Ohne proaktive Regulierung und plattformseitige Investitionen in präventive KI-Erkennung wird das Volumen solcher Inhalte weiter steigen. Wenn der EU AI Act ab August 2026 konsequent auf manipulative KI-Inhalte angewendet wird und Plattformen in die Pflicht nimmt, sinkt der ROI des Content Farmings spürbar. Wenn nicht — werden Millionen von Impressionen mit gefährlichen Gesundheitsratschlägen zum Alltag.

❓ Häufig gestellte Fragen

Was ist Content Farming im Gesundheitsbereich?
Dabei handelt es sich um die massenhafte Produktion von minderwertigen, oft falschen Gesundheitsvideos mithilfe von KI-Tools. Die Ersteller zielen ausschließlich darauf ab, über Affiliate-Links Geld zu verdienen, indem sie Ängste vor Krankheiten schüren.
Warum sind diese KI-generierten Gesundheitsvideos so gefährlich?
Sie verbreiten lebensbedrohliche Falschinformationen, die beispielsweise dazu führen können, dass betroffene Nutzer auf medizinisch notwendige Medikamente verzichten. Besonders ältere Zielgruppen erkennen häufig nicht, dass die seriös auftretenden Experten in Wahrheit künstliche Avatare sind.
Wie soll dieses manipulative System künftig gestoppt werden?
Der ab August 2026 greifende EU AI Act verbietet KI-Systeme, die auf eine emotionale Täuschung und Manipulation der Nutzer ausgelegt sind. Da bei Verstößen drakonische Strafen drohen, müssen die Plattformbetreiber dringend proaktive KI-Erkennungswerkzeuge etablieren.
Felix
Felix

Felix testet bei PromptLoop in der KI-Werkstatt KI-Tools nach einem einfachen Maßstab: Lohnt sich das im Arbeitsalltag wirklich, oder sieht es nur in der Demo gut aus? Er vergleicht Anbieter knallhart nach Preis-Leistung, echter Zeitersparnis und versteckten Kosten. Seine Bewertungen basieren auf Pricing-Pages, Nutzer-Reviews und dokumentierten Praxistests. Felix arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach