PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

OpenAI-Klage: Stalking-Opfer wirft ChatGPT vor, Warnungen ignoriert zu haben

Eine neue Klage vor dem California Superior Court wirft OpenAI vor, drei Sicherheitswarnungen zu einem gewaltbereiten Stalker-Nutzer ignoriert zu haben – darunter ein eigenes Mass-Casualty-Flag.

OpenAI-Klage: Stalking-Opfer wirft ChatGPT vor, Warnungen ignoriert zu haben
📷 KI-generiert mit Flux 2 Pro

Eine Frau, bekannt als Jane Doe, verklagt OpenAI, weil ihr Ex-Partner unter Nutzung von ChatGPT wahnhaft wurde, sie stalkte und KI-generierte Berichte an ihr Umfeld versandte. OpenAI ignorierte laut Klage drei Warnhinweise, darunter eine interne Deaktivierung des Kontos des Mannes im August 2025 wegen Aktivitäten im Bereich "Mass Casualty Weapons", die jedoch von einem menschlichen Teammitglied am nächsten Tag rückgängig gemacht wurde. Der Mann wurde im Januar 2026 wegen Bombendrohungen und schwerer Körperverletzung verhaftet.

⚡ TL;DR
  • Ein Stalking-Opfer verklagt OpenAI, da das Unternehmen mehrfach interne Sicherheitswarnungen bezüglich ihres gewaltbereiten Ex-Partners ignoriert haben soll.
  • Obwohl das System den Nutzer wegen Suchanfragen nach Massenvernichtungswaffen sperrte, schaltete ein Mitarbeiter das Konto manuell wieder frei.
  • Der Vorfall birgt rechtliche Brisanz, da durch den kommenden EU AI Act das Ignorieren solcher Warnungen künftig mit drastischen Geldstrafen geahndet wird.

Edelson PC führt Klage gegen OpenAI

Die Klage wird von Edelson PC geführt, die bereits ähnliche Fälle gegen OpenAI vertritt, und wirft Licht auf die zunehmende Besorgnis über KI-induzierte Psychosen. Interessanterweise lobbyiert OpenAI gleichzeitig für ein Gesetz in Illinois (SB 3444), das KI-Anbieter vor Haftung bei Massenunglücken schützen würde. Parallel dazu untersucht Floridas Generalstaatsanwaltschaft OpenAI wegen einer möglichen Verbindung zu einem Schulmassaker an der Florida State University, bei dem der Täter ChatGPT zur Tatplanung genutzt haben soll.

Dieser Fall ist auch für europäische Unternehmen relevant, da der EU AI Act ab dem 2. August 2026 greift und strenge Anforderungen an Hochrisiko-KI-Systeme stellt. Ein Szenario wie das beschriebene, bei dem automatische Sicherheitswarnungen ignoriert und manuelle Entscheidungen ohne Dokumentation getroffen werden, könnte zu erheblichen Compliance-Problemen und hohen Strafen von bis zu 3 % des weltweiten Jahresumsatzes führen. Weitere Details zu regulatorischen Anforderungen finden sich in unserem Compliance-Guide.

❓ Häufig gestellte Fragen

Warum hat ein Stalking-Opfer eine Klage gegen OpenAI eingereicht?
Die Klägerin wirft dem Unternehmen vor, drei klare Sicherheitswarnungen zu ihrem gewaltbereiten Ex-Partner ignoriert zu haben. Dieser nutzte ChatGPT zielgerichtet für sein Stalking und wurde später wegen Bombendrohungen festgenommen.
Welcher Fehler wird OpenAI bei der Fallmoderation konkret vorgeworfen?
Ein automatisierter Alarm deaktivierte das Konto des Nutzers zunächst wegen Suchaktivitäten im Bereich von Massenvernichtungswaffen. Ein menschlicher Mitarbeiter machte diese angemessene Kontosperrung jedoch am Folgetag einfach wieder rückgängig.
Warum ist dieser Fall für Unternehmen in Europa besonders relevant?
Ab August 2026 stellt der neue EU AI Act extrem strenge Auflagen für Hochrisiko-KI-Systeme in der Europäischen Union. Das Ignorieren von Warnungen und fehlerhafte manuelle Moderation könnten Anbieter künftig bis zu drei Prozent ihres weltweiten Jahresumsatzes kosten.
Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude 4.6.

📬 KI-News direkt ins Postfach