MG lebte bis zum vergangenen Sommer ein vergleichsweise normales Leben in Scottsdale, Arizona. Sie arbeitete als Persönliche Assistentin, kellnerte an Wochenenden und nutzte Instagram so, wie es die meisten Menschen tun: um Alltagsmomente mit Freunden zu teilen — Matcha, Pool, Pilates. Knapp 9.000 Follower, kein Influencer-Ambitionen, keine öffentliche Persona. Dann bekam sie eine Direktnachricht von einem Follower mit einer Frage, die ihr Leben veränderte: Wisse sie, dass Videos einer Frau, die genauso aussehe wie sie, auf Instagram kursierten? Sie klickte den Link — und sah ihr eigenes Gesicht auf einem fremden Körper. Spärlich bekleidet. Mit denselben Tattoos. Generiert von KI-Software, trainiert auf ihren eigenen Instagram-Bildern. Was sie dann weiter entdeckte, war noch gravierender: Ihre Bilder wurden nicht nur für Deepfake-Porn missbraucht — sie wurden gleichzeitig als Werbematerial für einen kostenpflichtigen Online-Kurs eingesetzt, der anderen Männern beibrachte, wie man dasselbe tut. MG ist eine von drei Klägerinnen in einem im Januar in Arizona eingereichten Verfahren gegen drei Männer aus Phoenix sowie 50 weitere namentlich nicht bekannte Täter. Der Fall legt ein industriell organisiertes Geschäftsmodell offen, das weit über Einzeltäter hinausgeht.
- Drei Frauen aus Arizona verklagen ein Netzwerk, das ihre Instagram-Bilder systematisch für KI-generierte Pornografie missbrauchte.
- Die Täter verdienten nicht nur mit den Deepfakes Geld, sondern setzten monatlich zehntausende Dollar mit Online-Kursen um, die dieses Vorgehen lehrten.
- Weil neue Gesetze wie der Take It Down Act erst 2026 greifen und Plattform-Regeln oft versagen, agiert die Tätergruppe derzeit ungehindert unter neuem Namen weiter.
Das Geschäftsmodell: Vom Scraping zum Abo-Produkt
Die Beklagten — Jackson Webb, Lucas Webb und Beau Schultz — sollen laut Klageschrift systematisch Fotos junger Frauen aus dem Internet gesammelt haben. Mithilfe einer Software namens CreatorCore trainierten sie KI-Modelle auf Basis dieser Bilder und generierten daraus Fotos und Videos fiktiver Models, die den realen Frauen täuschend ähnlich sahen. Diese Inhalte verkauften sie auf der Abo-Plattform Fanvue.
Das eigentlich Bemerkenswerte an dem Fall ist jedoch die zweite Einnahmequelle: Für 24,95 Dollar pro Monat auf der Plattform Whop boten die Männer Online-Kurse an, die anderen Männern zeigten, wie sie dasselbe Verfahren anwenden können. Laut Klage lieferten die Beklagten sogenannte "Blueprints" — detaillierte Anleitungen, wie man Frauenbilder aus sozialen Medien abgreift, in CreatorCore einspeist und daraus explizites Material generiert. Eine separate App soll dabei die Kleidung auf den Ausgangsfotos automatisch entfernt haben. Die daraus entstandenen Inhalte sollen laut Klageschrift Millionen Views erzielt und in einem Monat mehr als 50.000 Dollar Einnahmen generiert haben.
Besonders verstörend ist laut Anwalt Nick Brand die strategische Dimension der Täterzielgruppenauswahl: Die Kursanleitungen enthielten explizite Hinweise, welche Art von Frauen man für das Verfahren aussuchen solle — nämlich solche mit weniger als 50.000 Followern, um "rechtliche Probleme" zu vermeiden. Im Klartext: Die Täter wählten gezielt Frauen, die weniger Ressourcen und Öffentlichkeit haben, um sich zu wehren.
Laut Klageschrift hatte die CreatorCore-Plattform im Jahr 2025 mehr als 8.000 Abonnenten, die gemeinsam über 500.000 Bilder und Videos erzeugten. AI ModelForge ist damit kein Einzelfall, sondern Teil einer wachsenden Nische von Plattformen, die KI-generierte Influencer als Nebenverdienst vermarkten — oft mit explizit sexuellem Fokus.
MGs Fall: Gesicht als Werbemittel für das eigene Missbrauchsprodukt
MG entdeckte nicht nur, dass manipulierte Nacktbilder von ihr kursierten. Sie fand heraus, dass genau diese Bilder als Werbematerial für AI ModelForge selbst verwendet wurden — also als Bewerbung des Kursprodukts, das anderen beibrachte, wie man solche Bilder erstellt. Ihr Gesicht, ihre Tattoos, ihr Körper wurden zum Marketingmaterial für das System, das sie zum Opfer gemacht hatte.
Die KI-generierten Bilder sind nach ihrer Aussage dabei ähnlich genug, um Vertraute zu täuschen — aber gerade unterschiedlich genug, um Instagrams Impersonation-Richtlinien nicht zu verletzen. "Es ist mein Gesicht, meine Tattoos, auf einem anderen Outfit auf einem leicht anderen Körper", sagt sie. Das ist kein Zufall, sondern systemische Designentscheidung: Die Inhalte sind so konzipiert, dass sie unterhalb der Moderationsschwelle der Plattformen bleiben, aber reale Schäden für die betroffenen Frauen verursachen.
Trotz wiederholter Aufforderungen der Klägerinnen an Instagram, die Bilder zu entfernen, sind viele Accounts nach Angaben der Klägerinnen weiterhin aktiv. Gegenüber dem Originalmedium erklärte ein Instagram-Sprecher, die Plattform habe "äußerst strenge Richtlinien" für nicht einvernehmliche intime Inhalte — sowohl KI-generierte als auch andere — und entferne entsprechende Konten. Die im Verfahren genannten Accounts seien unter Überprüfung gestellt worden. TikTok hingegen teilte mit, die dort benannten Accounts hätten gegen Community-Richtlinien verstoßen und seien entfernt worden.
Inzwischen operiert AI ModelForge laut Originalquelle unter neuem Namen: Der Linktree-Link der Plattform führt zu "TaviraLabs", einer Telegram-Gruppe mit mehr als 18.000 Mitgliedern, die sich als "die #1 KI-Influencer-Coaching-Community" vermarktet. Die Maschine läuft weiter — unter anderem Brand.
Gesetzeslage: Take It Down Act und die Lücke, die er nicht schließt
Es gibt seit Mai 2025 ein US-Bundesgesetz, das die Verbreitung nicht einvernehmlicher, KI-generierter Pornografie unter Strafe stellt: den Take It Down Act, den Präsident Trump unterzeichnet hat. Das Gesetz verpflichtet Plattformen, gemeldete Inhalte innerhalb von 48 Stunden zu entfernen. Das Problem: Das Gesetz tritt erst im Mai 2026 in Kraft — und die mutmaßlichen Vergehen der Beklagten lagen zeitlich davor.
Die meisten US-Bundesstaaten, darunter Arizona, haben zwar eigene Deepfake-Gesetze verabschiedet. Arizona State Representative Nick Kupper, der Anfang 2026 einen Gesetzentwurf eingebracht hat, der Websites zur Nutzung automatischer Erkennungstools wie Altersverifizierung oder Consent-Formulare verpflichten würde, bringt es auf den Punkt: Staatliche Gesetze seien "reaktiv statt proaktiv". Und selbst wenn Inhalte entfernt werden — "einmal online, ist es quasi für immer da". Die Löschversuche gleichen einem Whack-a-Mole-Spiel: Trifft man einen Treffer, taucht der nächste auf.
Das strukturelle Problem liegt im Plattform-Design selbst. Die Moderationssysteme großer Plattformen arbeiten mit regelbasierten Richtlinien, die auf bekannte Verstoßmuster ausgelegt sind. KI-generierte Inhalte, die reale Personen imitieren ohne direkt zu kopieren, fallen durch die Raster — weil die Richtlinien diese Grauzone noch nicht hinreichend adressieren. Anwalt Brand formuliert die systemische Dimension des Falls so: "Diese Männer nutzen generative KI nicht nur dazu, Frauen zu entkleiden — sie verkaufen die Fähigkeit dazu an andere Männer und Jungen, die dann dasselbe mit anderen Frauen machen werden."
Was du rechtlich beachten musst
Der Fall berührt mehrere Rechtsebenen gleichzeitig — und hat direkte Implikationen für Creator, Unternehmen und Plattformbetreiber auch im DACH-Raum.
- Modell-Lizenz und kommerzieller Einsatz: Das Training von KI-Modellen auf Bildern realer Personen ohne Zustimmung ist in vielen Jurisdiktionen rechtlich angreifbar — unabhängig davon, ob die Ausgangsdaten öffentlich zugänglich waren. "Öffentlich" bedeutet nicht "lizenzfrei für KI-Training". Im EU-Kontext greift hier zusätzlich das Recht am eigenen Bild (§ 22 KUG in Deutschland).
- DSGVO und Personenbilder: Das Training von KI-Modellen auf Fotos identifizierbarer natürlicher Personen stellt nach Einschätzung vieler Datenschutzbehörden eine Verarbeitung personenbezogener Daten dar (Art. 4 DSGVO). Ohne Rechtsgrundlage — also insbesondere ohne Einwilligung — ist das in der EU schlicht illegal. Art. 22 DSGVO kommt zudem zum Tragen, wenn automatisierte Prozesse Entscheidungen über Personen generieren.
- EU AI Act — Hochrisiko-Einstufung ab 2026: Ab August 2026 greifen die Hochrisiko-Bestimmungen des EU AI Act. KI-Systeme, die synthetische Medien von realen Personen erzeugen, können als manipulative Praktiken eingestuft werden, die nach Art. 5 verboten sind. Die Strafen für verbotene Praktiken liegen bei bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes.
- Wasserzeichen und C2PA: Die Content Authenticity Initiative (C2PA) entwickelt technische Standards zur Kennzeichnung KI-generierter Inhalte. Plattformen wie Adobe, Microsoft und Google haben C2PA-Unterstützung angekündigt. Wer heute KI-Bild- oder Videogeneration in kommerzielle Workflows integriert, sollte bereits auf C2PA-Kompatibilität achten — regulatorischer Druck in diese Richtung wächst auf beiden Seiten des Atlantiks.
So promptest du es richtig — und was du nicht tun solltest
Der vorliegende Fall zeigt in aller Schärfe, wo die Grenze zwischen legitimem KI-Einsatz in der Bildproduktion und strafrechtlich relevantem Missbrauch verläuft. Für Creator und Unternehmen, die generative KI-Tools für Bild und Video einsetzen, ist die Frage der Trainingsdaten-Herkunft keine akademische.
Legitime Nutzung von Bild-KI-Modellen setzt auf lizenzierte Trainingsdaten oder explizit freigegebene Datensätze — und auf Prompts, die keine realen Personen als Basis nutzen. Zwei Beispiele für regelkonformen Umgang:
Prompt (Produktfoto, kommerziell):
"Studio product shot of a perfume bottle on white marble surface,
soft diffused light from the left, shallow depth of field,
photorealistic, 4K resolution, no people, no text, no words,
no letters, no typography"
Output-Mock: Hochauflösendes Produktbild, neutraler Hintergrund,
keine Personen, keine Identitätsrisiken — direkt einsetzbar
für E-Commerce oder Social Ads.
Prompt (Lifestyle-Bild für Brand Content):
"Young professional working at a minimalist desk in a bright loft,
natural daylight, warm tones, candid atmosphere,
fictional person, diverse appearance, no recognizable features,
no text, no words, no letters, no typography"
Output-Mock: Authentisch wirkende Lifestyle-Szene mit
generischer, nicht identifizierbarer Person — kein Rechterisiko,
da keine reale Person als Vorlage genutzt wurde.
Der entscheidende Unterschied zu dem, was AI ModelForge tat: Kein Training auf Fotos realer, identifizierbarer Personen ohne deren Zustimmung. Kein gezieltes Imitieren von Gesichtsmerkmalen, Körpermerkmalen oder Tattoos. Und kein kommerzieller Vertrieb von Inhalten, die eine reale Person erkennbar darstellen.
Wie gut ist der Output — und wie hoch ist das Missbrauchspotenzial?
Ohne ein spezifisches Tool zu bewerten, lässt sich auf Basis des Falls eine generelle Einschätzung der Qualitätsdimension treffen, die solche Missbrauchsfälle erst ermöglicht:
- Realismus (4/5): Moderne personenspezifisch trainierte Modelle erreichen eine Qualität, bei der selbst Menschen, die die betroffene Person kennen, getäuscht werden können — wie MGs eigene Aussage belegt.
- Konsistenz (4/5): Das Training auf einer bestimmten Person erzeugt konsistente Merkmale wie Gesichtszüge, Tattoos und Körperbau über mehrere Outputs hinweg.
- Steuerbarkeit (3/5): Fine-tuned Modelle reagieren auf Prompt-Variationen, aber der Bezug zur Ausgangsperson bleibt stabil — was im Missbrauchskontext gezielt ausgenutzt wird.
- Speed (5/5): Batch-Generierung von Hunderten Bildern pro Stunde ist mit aktueller Hardware und Cloud-Diensten trivial.
- Cost-per-Output (5/5): Die Kosten pro Bild liegen im Cent-Bereich — was erklärt, warum 500.000 Bilder und Videos mit minimalem Kapitaleinsatz möglich waren.
Diese Kombination — hoher Realismus, niedrige Kosten, einfache Skalierung — ist der Kern des strukturellen Problems. Es ist kein technischer Ausreißer, sondern der aktuelle Stand der Technik.
Workflow-Integration: Verantwortung beginnt in der Pipeline
Wer generative Bild- und Video-KI in professionelle Workflows integriert — ob in Premiere Pro über Firefly, in Figma über Generative Fill oder in ComfyUI mit eigenen LoRA-Modellen — trägt Verantwortung für die Datenherkunft seiner Trainingsdaten. Bei der Nutzung von LoRA-Fine-Tuning oder ähnlichen Techniken gilt: Ausschließlich auf Datensätzen trainieren, für die explizite Nutzungsrechte vorliegen. Plattformen wie Civitai oder Hugging Face bieten Modelle an, deren Lizenzbedingungen teils unklar sind — vor dem kommerziellen Einsatz ist eine rechtliche Prüfung Pflicht, keine Option.
So What? Der Fall zeigt, wo Regulierung strukturell hinterherhinkt
Was der Arizona-Fall für Creator, Plattformbetreiber und Entscheider im DACH-Raum bedeutet, ist klarer als es auf den ersten Blick scheint. Das hier beschriebene Geschäftsmodell — KI-generierter Missbrauch als skalierbares Abo-Produkt — ist keine Randerscheinung. Es ist die konsequente Weiterentwicklung einer Technologie, die günstig, leistungsfähig und schwer zu moderieren ist. Plattformen wie Instagram moderieren reaktiv, nicht proaktiv. Gesetze treten in Kraft, nachdem der Schaden bereits entstanden ist. Und die Täter passen sich an — Rebranding von AI ModelForge zu TaviraLabs mit 18.000 Telegram-Mitgliedern in kürzester Zeit ist dafür ein konkretes Beispiel.
Für Unternehmen und Creator im DACH-Raum ergeben sich daraus drei unmittelbare Handlungsfelder: Erstens, wer KI-generierte Medien produziert oder vertreibt, muss die Datenbasis seiner Modelle kennen und dokumentieren — das wird im Kontext des EU AI Act ab August 2026 zur Compliance-Pflicht. Zweitens, wer Plattformen betreibt, auf denen nutzeruploadete KI-Inhalte erscheinen, sollte schon heute auf C2PA-Kennzeichnung und proaktive Erkennungstools setzen, statt auf Meldeverfahren zu warten. Drittens: Der Fall illustriert, dass die DSGVO-Implikationen des KI-Trainings auf Personenbilder real sind — und dass deutsche Datenschutzbehörden dieses Thema in ihrer Agenda bereits führen.
MGs abschließende Einschätzung trifft den Kern: "Es geht nicht darum, vorsichtig mit seinem Bild online zu sein, weil alle auf Social Media sind. Jeder ist auf LinkedIn. Jeder ist auf Instagram. Ich möchte, dass die Menschen verstehen, dass das auch ihnen passieren könnte." Wer das als individuelles Problem einer Einzelperson liest, versteht die strukturelle Dimension des Falls nicht.
Fazit: Ein Präzedenzfall mit Signalwirkung
Die Klage gegen Jackson Webb, Lucas Webb und Beau Schultz ist mehr als ein zivilrechtlicher Einzelfall. Sie dokumentiert ein industriell organisiertes Geschäftsmodell, das generative KI systematisch für nicht einvernehmliche Pornografie und deren Vermarktung als Kursprodukt nutzt. Die technischen Mittel sind günstig und verfügbar, die gesetzlichen Schutzlücken real und die Plattform-Moderation strukturell überfordert.
Der Take It Down Act tritt im Mai 2026 in Kraft — genau jetzt. Er ist ein Schritt in die richtige Richtung, löst aber das Grundproblem nicht: Inhalte entstehen schneller, als Gesetze sie adressieren können, und Täter reagieren mit Rebranding statt Rückzug. Der EU AI Act bietet im europäischen Kontext schärfere Instrumente, aber auch dort gilt: Compliance ohne Durchsetzung ist Papier. Was den Unterschied macht, sind Plattformen, die proaktiv moderieren, Gesetzgeber, die technologieneutral formulieren, und Creator sowie Unternehmen, die Verantwortung für ihre KI-Workflows übernehmen — bevor ein Gericht sie dazu zwingt.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 3 Primärquellen (creatorcore.co, fanvue.com, arstechnica.com)
📚 Quellen