Im laufenden Gerichtsverfahren zwischen Elon Musk und OpenAI hat die frühere Technologiechefin Mira Murati CEO Sam Altman schwer belastet. Murati sagte in einer Videoaussage aus, Altman habe ihr gegenüber falsche Angaben darüber gemacht, ob ein neues KI-Modell eine Prüfung durch das firmeneigene Deployment Safety Board benötige. Auf die direkte Frage, ob Altman ihr die Wahrheit gesagt habe, antwortete Murati: „Nein." Das Verfahren findet vor dem Bundesgericht für Nordkalifornien in Oakland statt und dreht sich um Musks Vorwurf, OpenAI habe seine ursprüngliche gemeinnützige Mission zugunsten eines profitorientierten Umbaus verraten.
- Im Gerichtsprozess zwischen Elon Musk und OpenAI hat Ex-CTO Mira Murati unter Eid ausgesagt, dass CEO Sam Altman sie bezüglich einer KI-Sicherheitsprüfung belogen habe.
- Altman soll fälschlicherweise behauptet haben, die Rechtsabteilung halte die Prüfung eines neuen Modells für unnötig, was Murati widerlegen konnte.
- Die belastende Aussage schwächt Altmans Glaubwürdigkeit enorm und wirft die Frage auf, ob Sicherheitsgremien bei OpenAI systematisch übergangen werden.
Der Kern von Muratis Aussage: Altman habe ihr erklärt, OpenAIs Rechtsabteilung halte eine Sicherheitsprüfung für das betreffende GPT-Modell für nicht notwendig. Murati zweifelte daran und sprach daraufhin direkt mit Jason Kwon, der zu dieser Zeit als General Counsel des Unternehmens fungierte. Das Ergebnis: laut ihrer eigenen Aussage stellte sie ein „Misalignment" zwischen dem fest, was Altman ihr gesagt hatte, und dem, was Kwon ihr mitteilte. „Ich habe bestätigt, dass das, was Jason sagte, und das, was Sam sagte, nicht dasselbe war", so Murati wörtlich im Gerichtssaal.
Murati betonte zudem, ihre Bedenken hätten sich vorrangig auf Management- und Führungsfragen konzentriert. Sie habe Altman aufgefordert, klar zu führen und ihre Arbeit nicht zu untergraben — eine Formulierung, die tief sitzende interne Spannungen offenbart. Der Dissens über die Sicherheitsprüfung sei ein zentrales Problem während ihrer gesamten Zeit bei OpenAI gewesen.
Muratis Aussage legt die Ereignisse vom November 2023 erneut frei. Damals entließ der OpenAI-Vorstand Altman mit der Begründung, er sei „in seinen Kommunikationen mit dem Vorstand nicht stets offen" gewesen. Murati wurde in dieser Führungskrise zur Interims-CEO ernannt — eine Rolle, die sie nur wenige Tage innehatte, bevor Altman zurückkehrte. 2024 verließ Murati OpenAI und gründete ihr eigenes Startup, Thinking Machines Lab. Ihre jetzige Aussage vor Gericht ist damit das erste Mal, dass sie sich öffentlich und unter Eid zu den damaligen Vorgängen äußert.
Das verleiht ihrer Aussage besonderes Gewicht. Sie ist keine anonyme Quelle, keine Insiderin mit Agenda — sondern eine der technisch versiertesten Führungskräfte, die OpenAI je hatte, und sie spricht jetzt unter den Bedingungen eines Bundesgerichts.
Elon Musk wirft OpenAI und Sam Altman vor, die gemeinnützige Gründungsmission des Unternehmens verraten zu haben. Musk investierte früh in OpenAI, verließ den Vorstand 2018 und behauptet seitdem, der Umbau hin zu einem profitorientierten Modell — befeuert durch die Milliarden-Partnerschaft mit Microsoft — sei ein Vertragsbruch. „Es ist nicht okay, eine wohltätige Organisation zu stehlen", soll Musk im Prozess gesagt haben. Altmans Gegenargument: Der Non-Profit-Kern behalte weiterhin die Kontrolle über OpenAI. Wer die Kontrolle wirklich hat, ist die juristische Kernfrage — und Muratis Aussage über interne Kommunikationsprobleme fügt dieser Frage eine neue Dimension hinzu. Denn wenn Altman selbst innerhalb des Unternehmens unklare oder widersprüchliche Signale gesendet hat, schwächt das die Glaubwürdigkeit seiner Darstellung nach außen erheblich.
Parallel dazu läuft die Debatte, welche Rolle Sicherheitsgremien bei OpenAI wirklich spielen — oder ob sie de facto übergangen werden können, wenn es die Produktstrategie erfordert. Genau das ist der Vorwurf, der hinter Muratis Aussage steckt. Im Musk-vs.-Altman-Verfahren steht damit mehr auf dem Spiel als nur die Unternehmenszukunft von OpenAI — es geht um die Frage, ob KI-Sicherheitsprozesse in der Praxis tatsächlich bindend sind.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 2 Primärquellen (timesnownews.com, deutschlandfunknova.de)
📚 Quellen