Die Frage ist nicht, ob ChatGPT einen Mord begangen hat. Die Frage ist, ob ein KI-System rechtlich als Tathelfer gelten kann — und ob das bisherige Sicherheitsdesign großer Sprachmodelle dieser Prüfung standhält. Floridas Generalstaatsanwalt James Uthmeier hat seine laufende Strafermittlung gegen OpenAI ausgeweitet. Auslöser: Gerichtsdokumente zeigen, dass der mutmaßliche Doppelmörder Hisham Abugharbieh ChatGPT kurz vor den Taten nach den physischen Folgen befragte, einen Menschen in einen schwarzen Müllsack zu stecken und in einen Müllcontainer zu werfen. Diese zwei Fälle — ein Massenschusswaffenangriff an der Florida State University im April 2025 mit zwei Toten und fünf Verletzten sowie der Doppelmord an der University of South Florida im April 2026 — sind nun Teile derselben strafrechtlichen Untersuchung. Was auf den ersten Blick wie eine politisch aufgeladene Einzelaktion eines US-Bundesstaates wirkt, ist bei näherer Betrachtung ein erster systematischer Stresstest für das globale Haftungsmodell generativer KI — mit direkten Implikationen weit über Florida hinaus.
- Floridas Generalstaatsanwalt weitet eine Strafermittlung gegen OpenAI aus, da ein mutmaßlicher Doppelmörder ChatGPT nach der Entsorgung einer Leiche befragte.
- Der juristische Präzedenzfall thematisiert die fundamentale Frage, ob KI-Systeme wegen fehlender Intention überhaupt als Tathelfer eingestuft werden können.
- Für DACH-Unternehmen verdeutlicht der Fall die dringende Notwendigkeit, KI-Haftungsrisiken, Governance-Regeln und Datenschutzvorgaben sauber zu dokumentieren.
Zwei Fälle, eine Untersuchung: Was die Dokumente zeigen
Der erste Fall beginnt am 17. April 2025 mit einem Schusswaffenangriff auf dem Campus der Florida State University. Zwei Menschen sterben, fünf werden verletzt. Ein Anwalt der Opferfamilien behauptet später, der Schütze Phoenix Ikner sei in "constant communication" mit ChatGPT gewesen und der Chatbot könnte dem Täter bei der Planung geholfen haben. Uthmeier kündigte daraufhin eine formale Strafermittlung gegen OpenAI an.
Der zweite Fall eskaliert die Untersuchung erheblich. Am 16. April 2026 werden zwei Doktoranden der University of South Florida als vermisst gemeldet. Ihr mutmaßlicher Mörder: Hisham Abugharbieh, 26, Mitbewohner eines der Opfer. Laut von Gizmodo eingesehenen Gerichtsdokumenten fragte Abugharbieh am 13. April 2026 — drei Tage vor dem gemeldeten Verschwinden — ChatGPT: Was passiert, wenn man eine Person in einen schwarzen Müllsack steckt und in einen Müllcontainer wirft? Am 19. April folgte eine weitere Anfrage: ob Apple den neuen Nutzer eines iPhones nach dem Vorbesitzer identifizieren könne.
Uthmeier verkündete die Ausweitung der Untersuchung auf X: "We are expanding our criminal investigation into OpenAI to include the USF murders after learning the primary suspect used ChatGPT." Die Logik dahinter ist juristisch ungewohnt, aber nicht beliebig: Unter florida-rechtlicher Auslegung kann jeder, der jemanden bei einer Straftat unterstützt, berät oder dazu anstiftet, mit derselben Verantwortung belegt werden wie der Täter selbst.
Wie ChatGPT auf diese Fragen tatsächlich antwortet
Der Gizmodo-Autor Mike Pearl hat nach Erscheinen der Gerichtsdokumente selbst Tests mit der ChatGPT-Version durchgeführt. Das Ergebnis ist aufschlussreich, weil es das eigentliche technische Problem sichtbar macht.
Auf die Müllcontainer-Frage antwortete ChatGPT mit einer Beschreibung der Erstickungsgefahr für eine offenbar noch lebende Person. Auf die iPhone-Frage gab das Modell technische Auskunft unter der Annahme, der Fragende habe ein gebrauchtes Gerät erworben und hege Datenschutzbedenken. Ein Mechanismus zur Erkennung krimineller Absichten wurde in keinem der Fälle ausgelöst. Der Chatbot empfahl lediglich, die Behörden zu kontaktieren, sollte man Zeuge einer solchen Tat geworden sein.
Das ist das strukturelle Problem: Große Sprachmodelle wie ChatGPT interpretieren jeden Prompt kontextfrei im statistischen Raum der Trainingsdaten. Sie besitzen keine persistente Nutzerhistorie über Sitzungen hinaus, keine echte Intentionserkennung und kein Modell menschlicher Motivlagen. Eine Frage über Müllcontainer und Körper kann aus einem Krimi-Manuskript stammen, aus medizinischer Neugier oder aus krimineller Absicht — das Modell unterscheidet das nicht zuverlässig. Das ist keine Fahrlässigkeit von OpenAI, sondern eine fundamentale Eigenschaft autoreggressiver Token-Vorhersage: Das Modell maximiert die Plausibilität der nächsten Ausgabe, nicht die moralische Bewertung der Eingabe.
Gleichzeitig lässt sich nicht ignorieren, dass OpenAI das mit dem mutmaßlichen FSU-Schützen verknüpfte ChatGPT-Konto identifiziert und den Strafverfolgungsbehörden zur Verfügung gestellt hat. Das belegt zumindest, dass das Unternehmen technisch in der Lage ist, Nutzerdaten zu extrahieren und mit Behörden zu kooperieren — was wiederum die Frage aufwirft, welche Signale ein gut kalibriertes Sicherheitssystem hätte erkennen müssen.
Die Gegenposition: Warum die Strafermittlung auf tönernen Füßen steht
OpenAI hat die Vorwürfe klar zurückgewiesen. Ein Sprecher erklärte: "This is a terrible crime, and our thoughts are with everyone affected. We're looking into these reports and will do whatever we can to support law enforcement in their investigation." Das ist diplomatisch, aber die eigentliche Verteidigungslinie liegt woanders.
Erstens: Die Kausalitätsfrage. Dass Abugharbieh ChatGPT nach Müllcontainern fragte, belegt Nutzung — nicht Anstiftung. Mörder haben vor ihren Taten auch Google, YouTube und Bibliotheken konsultiert. Ein Informationsmedium, das auf eine Frage antwortet, ist nicht automatisch Tathelfer. Der rechtliche Begriff des "accomplice" setzt in der Regel Vorsatz und Kenntnis der kriminellen Intention voraus — beides Attribute, die einem Sprachmodell juristisch schwer zuzuschreiben sind.
Zweitens: Der politische Kontext. Uthmeier ist ein Verbündeter von Ron DeSantis und agiert in einem Bundesstaat, der sich seit Jahren als Gegner der Tech-Branche profiliert. Die Formulierung, "wäre ChatGPT eine Person, würde sie wegen Mordes angeklagt werden" — die von Uthmeier offiziell genutzt wurde — markiert die politische Dimension der Ermittlung.
Drittens: Die technische Komplexität. Die Gerichtsdokumente zeigen Fragen, keine Antworten, die explizit zur Tat angeleitet hätten. Was Abugharbieh mit den ChatGPT-Antworten tatsächlich gemacht hat, wie viele weitere Interaktionen es gab und ob der Chatbot in irgendeiner Form über das Standardniveau hinaus reagierte — all das ist öffentlich nicht dokumentiert. Der tatsächliche Kausalzusammenhang zwischen Chatbot-Antwort und physischer Tat bleibt ungeklärt.
Was das für den EU AI Act und DACH-Unternehmen bedeutet
Wer die Florida-Ermittlung als amerikanische Randnotiz abtut, unterschätzt ihre Signalwirkung. Denn sie formalisiert eine Debatte, die im europäischen Rechtsraum längst läuft — nur strukturierter und mit klar definierten Haftungsregeln.
Seit August 2025 sind die GPAI-Regeln des EU AI Act in Kraft, inklusive Governance-Anforderungen und Strafen. Ab August 2026 greift der Hauptteil des Gesetzes, der Hochrisiko-KI-Systeme und Biometrie reguliert. ChatGPT ist als General-Purpose AI Model (GPAI) eingestuft — das bedeutet unter anderem Transparenzpflichten und die Pflicht zur Einhaltung von Urheberrecht und Datenschutz. Die explizite Frage, ob ein GPAI-Anbieter für deliktische Nutzung seiner Plattform haftet, ist im AI Act noch nicht abschließend geregelt. Genau das macht den Florida-Fall zu einem Präzedenzfall-Kandidaten: Er zwingt Gerichte, eine Position einzunehmen, bevor der Gesetzgeber eine solche formuliert hat.
Für DACH-Unternehmen, die ChatGPT oder ähnliche Modelle in internen Workflows einsetzen, ergibt sich daraus eine konkrete Konsequenz. Wer KI-Tools produktiv nutzt, sollte jetzt dokumentieren, welche Sicherheitsmechanismen aktiv sind, wie Nutzungslogs aufbewahrt werden und ob die eingesetzten Modelle DSGVO-konform betrieben werden — Stichwort Art. 35, Datenschutz-Folgenabschätzung bei automatisierten Systemen mit potenziellem Risiko. OpenAIs Bereitschaft, Nutzerdaten an US-Strafverfolgungsbehörden herauszugeben, ist dabei ein Drittlandtransfer-Problem, das für europäische Unternehmenskunden relevant ist.
So What? Strategische Einordnung für DACH-Entscheider
Der Fall Florida ist kein Einzelereignis — er ist der Anfang einer Welle. Überall dort, wo KI-Systeme in der Nähe schwerwiegender Ereignisse auftauchen, werden Staatsanwälte und Anwälte künftig fragen: Was hat das Modell gewusst? Was hätte es erkennen müssen? Hat der Anbieter ausreichende Sicherheitsmechanismen implementiert?
Das ist für OpenAI zunächst ein Reputationsproblem, könnte aber mittelfristig ein strukturelles sein. Wenn US-Gerichte beginnen, eine Mitverantwortung von KI-Anbietern für Nutzungsmissbrauch anzuerkennen, verschieben sich die Entwicklungsanreize erheblich. Mehr Monitoring, engere Guardrails, stärkere Kontextprotokollierung — all das hat Kosten, sowohl finanzieller als auch funktionaler Art. Ein ChatGPT, das jeden Prompt auf kriminelle Absicht prüft, wird schlechter in seiner Kernaufgabe.
DACH-Entscheider sollten jetzt drei Dinge tun: Erstens, die eigene KI-Nutzungsrichtlinie auf Haftungsrisiken prüfen — wer haftet, wenn ein Mitarbeiter mit einem unternehmenslizenzierten KI-Tool deliktisch relevante Informationen abfragt? Zweitens, Anbieter-Verträge auf Datenlokalisierung und Behörden-Kooperationsklauseln prüfen. Drittens, den Fortgang des Florida-Verfahrens beobachten: Wenn US-Gerichte eine Haftungstheorie entwickeln, wird Brüssel nachziehen — schneller, als viele Compliance-Teams erwarten.
Fazit: Ein Präzedenzfall mit offenem Ausgang
Floridas Strafermittlung gegen OpenAI wird wahrscheinlich nicht in einer Verurteilung enden — die rechtliche Grundlage ist zu dünn, die Kausalitätsfrage zu offen. Aber das ist nicht der entscheidende Maßstab. Entscheidend ist, dass ein Generalstaatsanwalt erstmals formell eine strafrechtliche Untersuchung gegen einen KI-Anbieter eröffnet hat, gestützt auf dokumentierte Interaktionen zwischen einem mutmaßlichen Mörder und einem Chatbot. Das setzt einen institutionellen Rahmen, der sich replizieren lässt.
Wenn die nächste vergleichbare Tat in Deutschland, Österreich oder der Schweiz passiert und Staatsanwälte auf den Florida-Präzedenzfall verweisen können, wird die Debatte über KI-Haftung eine andere Qualität annehmen. Meine Einschätzung: Mit einer Wahrscheinlichkeit von über 70 Prozent werden europäische Regulatoren spätestens bis Ende 2027 konkrete Haftungsleitlinien für GPAI-Anbieter bei deliktischer Nutzung formulieren — wenn nicht durch Gesetzgebung, dann durch Gerichtsurteile. Bis dahin befinden sich OpenAI und seine Konkurrenten in einer regulatorischen Grauzone, deren Grenzen gerade in einem Bundesstaat mit politischen Ambitionen abgesteckt werden.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen