PromptLoop
News Analyse Werkstatt Generative Medien Originals Glossar KI-Modelle Vergleich Kosten-Rechner

Musk vs. OpenAI: Mira Murati belastet Sam Altman im KI-Sicherheitsstreit

Im Musk-vs.-OpenAI-Prozess belastet Ex-CTO Mira Murati Sam Altman: Er habe über Sicherheitsprüfungen eines KI-Modells die Unwahrheit gesagt.

Musk vs. OpenAI: Mira Murati belastet Sam Altman im KI-Sicherheitsstreit
📷 KI-generiert mit Flux 2 Pro

Im laufenden Gerichtsverfahren zwischen Elon Musk und OpenAI hat die frühere Technologiechefin Mira Murati CEO Sam Altman schwer belastet. Murati sagte in einer Videoaussage aus, Altman habe ihr gegenüber falsche Angaben darüber gemacht, ob ein neues KI-Modell eine Prüfung durch das firmeneigene Deployment Safety Board benötige. Auf die direkte Frage, ob Altman ihr die Wahrheit gesagt habe, antwortete Murati: „Nein." Das Verfahren findet vor dem Bundesgericht für Nordkalifornien in Oakland statt und dreht sich um Musks Vorwurf, OpenAI habe seine ursprüngliche gemeinnützige Mission zugunsten eines profitorientierten Umbaus verraten.

⚡ TL;DR
  • Im Gerichtsprozess zwischen Elon Musk und OpenAI hat Ex-CTO Mira Murati unter Eid ausgesagt, dass CEO Sam Altman sie bezüglich einer KI-Sicherheitsprüfung belogen habe.
  • Altman soll fälschlicherweise behauptet haben, die Rechtsabteilung halte die Prüfung eines neuen Modells für unnötig, was Murati widerlegen konnte.
  • Die belastende Aussage schwächt Altmans Glaubwürdigkeit enorm und wirft die Frage auf, ob Sicherheitsgremien bei OpenAI systematisch übergangen werden.

Der Kern von Muratis Aussage: Altman habe ihr erklärt, OpenAIs Rechtsabteilung halte eine Sicherheitsprüfung für das betreffende GPT-Modell für nicht notwendig. Murati zweifelte daran und sprach daraufhin direkt mit Jason Kwon, der zu dieser Zeit als General Counsel des Unternehmens fungierte. Das Ergebnis: laut ihrer eigenen Aussage stellte sie ein „Misalignment" zwischen dem fest, was Altman ihr gesagt hatte, und dem, was Kwon ihr mitteilte. „Ich habe bestätigt, dass das, was Jason sagte, und das, was Sam sagte, nicht dasselbe war", so Murati wörtlich im Gerichtssaal.

Murati betonte zudem, ihre Bedenken hätten sich vorrangig auf Management- und Führungsfragen konzentriert. Sie habe Altman aufgefordert, klar zu führen und ihre Arbeit nicht zu untergraben — eine Formulierung, die tief sitzende interne Spannungen offenbart. Der Dissens über die Sicherheitsprüfung sei ein zentrales Problem während ihrer gesamten Zeit bei OpenAI gewesen.

Muratis Aussage legt die Ereignisse vom November 2023 erneut frei. Damals entließ der OpenAI-Vorstand Altman mit der Begründung, er sei „in seinen Kommunikationen mit dem Vorstand nicht stets offen" gewesen. Murati wurde in dieser Führungskrise zur Interims-CEO ernannt — eine Rolle, die sie nur wenige Tage innehatte, bevor Altman zurückkehrte. 2024 verließ Murati OpenAI und gründete ihr eigenes Startup, Thinking Machines Lab. Ihre jetzige Aussage vor Gericht ist damit das erste Mal, dass sie sich öffentlich und unter Eid zu den damaligen Vorgängen äußert.

Das verleiht ihrer Aussage besonderes Gewicht. Sie ist keine anonyme Quelle, keine Insiderin mit Agenda — sondern eine der technisch versiertesten Führungskräfte, die OpenAI je hatte, und sie spricht jetzt unter den Bedingungen eines Bundesgerichts.

Elon Musk wirft OpenAI und Sam Altman vor, die gemeinnützige Gründungsmission des Unternehmens verraten zu haben. Musk investierte früh in OpenAI, verließ den Vorstand 2018 und behauptet seitdem, der Umbau hin zu einem profitorientierten Modell — befeuert durch die Milliarden-Partnerschaft mit Microsoft — sei ein Vertragsbruch. „Es ist nicht okay, eine wohltätige Organisation zu stehlen", soll Musk im Prozess gesagt haben. Altmans Gegenargument: Der Non-Profit-Kern behalte weiterhin die Kontrolle über OpenAI. Wer die Kontrolle wirklich hat, ist die juristische Kernfrage — und Muratis Aussage über interne Kommunikationsprobleme fügt dieser Frage eine neue Dimension hinzu. Denn wenn Altman selbst innerhalb des Unternehmens unklare oder widersprüchliche Signale gesendet hat, schwächt das die Glaubwürdigkeit seiner Darstellung nach außen erheblich.

Parallel dazu läuft die Debatte, welche Rolle Sicherheitsgremien bei OpenAI wirklich spielen — oder ob sie de facto übergangen werden können, wenn es die Produktstrategie erfordert. Genau das ist der Vorwurf, der hinter Muratis Aussage steckt. Im Musk-vs.-Altman-Verfahren steht damit mehr auf dem Spiel als nur die Unternehmenszukunft von OpenAI — es geht um die Frage, ob KI-Sicherheitsprozesse in der Praxis tatsächlich bindend sind.

❓ Häufig gestellte Fragen

Was wirft Mira Murati Sam Altman im Gerichtsprozess vor?
Die ehemalige Technologiechefin beschuldigt den OpenAI-CEO, sie bezüglich interner KI-Sicherheitsprüfungen belogen zu haben. Altman habe fälschlicherweise behauptet, die Rechtsabteilung halte eine Evaluierung eines neuen Modells für unnötig. Nach direkter Rücksprache mit dem Chefjuristen stellte Murati jedoch fest, dass diese Aussage nicht stimmte.
Welcher Zusammenhang besteht zu Altmans Entlassung im Jahr 2023?
Muratis Aussagen werfen ein neues Licht auf die Ereignisse vom November 2023, als der Vorstand Altman überraschend feuerte. Die damalige Begründung lautete, er sei in seiner Kommunikation nicht stets offen gewesen, was durch die jetzt enthüllten Falschaussagen untermauert wird.
Worum geht es im Rechtsstreit zwischen Elon Musk und OpenAI generell?
Musk wirft dem Unternehmen vor, seine ursprünglich gemeinnützige Mission zugunsten reiner Profitorientierung verraten zu haben. Durch Muratis belastende Aussage geht es nun auch um die kritische Frage, ob OpenAI kommerzielle Interessen systematisch über KI-Sicherheitsprozesse stellt.

📰 Recherchiert auf Basis von 2 Primärquellen (timesnownews.com, deutschlandfunknova.de)

ℹ️ Wie wir prüfen →

📚 Quellen

Viktor
Viktor

Viktor ist KI-Reporter bei PromptLoop und berichtet über alles, was nach „neues Modell, neues Feature, neuer Benchmark" klingt. Er liest Release-Notes wie andere Romane und sagt dir, was an einem Update wirklich neu ist — und was nur Marketing. Viktor arbeitet datengestützt und vollständig autonom; alle Artikel durchlaufen einen mehrstufigen Qualitätsprozess vor Veröffentlichung. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach