X verfügt über eine Funktion namens „Boost", die es zahlenden Abonnenten erlaubt, gegen eine zusätzliche Gebühr Beiträge anderer Nutzer zu verstärken und in fremde Feeds zu schieben. Musk, der X besitzt und dessen Konto mit Sonderrechten ausgestattet ist, nutzte diese Funktion, um einen Post von Ronan Farrow zu amplifizieren — einem Post, der die New Yorker-Untersuchung über Sam Altman bewirbt. WIRED konnte das entsprechende Pop-up-Fenster, das den Boost durch @elonmusk anzeigte, unabhängig verifizieren.
- Elon Musk nutzt die kostenpflichtige „Boost“-Funktion auf seiner Plattform X als taktische Waffe, um zum Gerichtsprozess kritische Berichterstattung über OpenAI-CEO Sam Altman zu verbreiten.
- Sein Vorgehen zeugt von einem massiven Interessenkonflikt, da Musk nicht nur Kläger vor Gericht ist, sondern mit seinem Unternehmen xAI auch einen direkten Konkurrenten zu OpenAI führt.
- Dieser digitale Machtkampf verdeutlicht europäischen Entscheidern gravierende rechtliche Lücken, wenn Plattformbesitzer ihre eigenen wirtschaftlichen Interessen unmarkiert verstärken.
Wie der Boost funktioniert — und was daran problematisch ist
Der Haken: Laut der eigenen FAQ-Seite von X müssen gebooste Posts sich als Werbung ausweisen und den Werberichtlinien der Plattform entsprechen. Der Farrow-Post trug in den Feeds der Nutzer am Montag kein „Anzeige"-Label. Wer allerdings das Optionen-Menü des Posts öffnete, sah Auswahlmöglichkeiten wie „Anzeige melden" — ein stilles Eingeständnis, dass X intern sehr wohl weiß, was hier passiert. Musk selbst repostete Farrows Geschichte zusätzlich von seinem eigenen Account und kommentierte auf X: „Calling him 'Scam' Altman is accurate" — bezugnehmend auf einen Spitznamen für den OpenAI-Chef, der im New Yorker-Artikel erwähnt wird. Er ergänzte: „This is very much worth reading."
Das Zusammenspiel ist bemerkenswert: Der Plattform-Eigentümer, der gleichzeitig Kläger in einem Bundesgerichtsverfahren ist, nutzt seine eigene Infrastruktur, um kritische Berichterstattung über den Beklagten zu verbreiten — und tut das zu einem Zeitpunkt, der kein Zufall sein kann. The New Yorker, X und OpenAI antworteten zunächst nicht auf eine Anfrage von WIRED.
Was im New Yorker steht — und warum Musk es so gerne teilt
Der Artikel von Ronan Farrow und Andrew Marantz, erschienen im New Yorker, ist eine umfangreiche investigative Untersuchung über Sam Altman, dessen Verhalten und Führungsstil bei OpenAI. Der Titel fragt direkt: „Sam Altman May Control Our Future. Can He Be Trusted?" Musk nennt den Artikel ausdrücklich lesenswert — was wenig überrascht, denn die Untersuchung liefert genau die Art von Narrativ, das Musks Gerichtsstrategie stützt: Ein Bild Altmans als jemand, dessen Handlungen und Aussagen nicht immer deckungsgleich sind.
Für Musk ist das Timing nahezu perfekt. Er streitet vor Gericht, dass seine Investition in OpenAI — Tens of Millions Dollar in der Frühphase des Non-Profits — nicht wie beabsichtigt verwendet wurde. Sein Argument: Die ursprüngliche gemeinnützige Mission, Künstliche Allgemeine Intelligenz zum Wohl der gesamten Menschheit zu entwickeln, sei durch die Transformation in eine gewinnorientierte Struktur verraten worden. OpenAI widerspricht: Musk sei sich bewusst gewesen, dass OpenAI letztendlich ein großes Unternehmen werden müsse, um seine Ziele zu erreichen. Ein investigativer Artikel, der Altmans Vertrauenswürdigkeit generell in Frage stellt, ist da ein willkommenes Begleitprogramm zum Gerichtsverfahren — selbst wenn er für die konkreten Klagepunkte juristisch irrelevant ist.
Hinzu kommt: Am Montag startete die Geschworenenauswahl für den Prozess, und mehrere potenzielle Geschworene gaben an, kein Fan von Musk oder KI im Allgemeinen zu sein. Die öffentliche Meinungsbildung läuft also parallel zum juristischen Verfahren — und Musk steuert mindestens einen Teil davon direkt über seine eigene Plattform.
Musk v. Altman: Worum es vor Gericht wirklich geht
Musks Klage richtet sich gegen OpenAI, Sam Altman, Präsident Greg Brockman und Microsoft. Der Vorwurf: OpenAI habe sich von seiner Gründungsmission entfernt — der Sicherstellung, dass AGI der gesamten Menschheit zugutekommt. Musk war Mitgründer und investierte in der Frühphase tens of millions of dollars in das Non-Profit. Er argumentiert, seine Investition sei nicht wie vereinbart eingesetzt worden.
OpenAI hält dagegen, dass Musk die kommerzielle Entwicklung des Unternehmens stets als notwendig anerkannt habe. Der Transformationsprozess von Non-Profit zu einer Struktur mit gewinnorientierter Komponente — mit Microsoft als strategischem Partner — sei nichts gewesen, was Musk überrascht haben könnte. Das Gericht hat bereits entschieden, dass keine Strafschadensersätze zugelassen werden. Die Jury muss nun klären, ob Vertragsverletzungen vorliegen und ob Musks Investment tatsächlich zweckentfremdet wurde.
- Beklagte: Sam Altman, Greg Brockman (Präsident OpenAI), Microsoft
- Klagebasis: Abweichung von der gemeinnützigen Gründungsmission, Vertragsverletzung
- Musks Position: Investment nicht wie intendiert verwendet
- OpenAIs Position: Musk kannte die Notwendigkeit einer kommerziellen Entwicklung
- Ausgeschlossen: Strafschadensersätze
- Prozessstart: 27. April 2026, Bundesgericht Oakland, Beginn mit Geschworenenauswahl
Dass der Prozess in Oakland stattfindet, ist nicht ohne Symbolik: Silicon Valley reguliert sich selbst vor dem Gesetz — während die mächtigsten Akteure der KI-Industrie gleichzeitig auf sozialen Plattformen die öffentliche Erzählung mitgestalten. Das ist ein strukturelles Problem, kein persönliches.
Die Schwachstelle des Arguments: Musk als unglaubwürdiger Kläger
So klar Musks taktisches Vorgehen auch ist — es hat einen offensichtlichen Haken. Musk ist nicht nur Kläger in diesem Verfahren. Er ist auch Gründer und CEO von xAI, OpenAIs direktem Konkurrenten. Seine KI-Modelle — darunter die aktuellsten Versionen aus der Grok-Familie (mit geschätzten 64 Mio. MAU in 2026) — stehen in direkter Konkurrenz zu ChatGPT. Das macht seine Motivationslage vor Gericht alles andere als transparent.
Dass Musk OpenAI ursprünglich mitgründete und dann 2018 das Unternehmen verließ, bevor die kommerzielle Transformation in vollem Gange war, schwächt seinen Anspruch auf Mitsprache über diese Transformation erheblich. Er war schlicht nicht mehr dabei, als die entscheidenden Weichenstellungen vorgenommen wurden. Gleichzeitig hat er danach sein eigenes KI-Unternehmen aufgebaut — was ein Bundesgericht durchaus als Interessenkonflikt interpretieren könnte.
Hinzu kommt das Plattform-Problem: Wer eine Plattform besitzt, auf der Millionen Menschen ihre Informationen beziehen, und diese Plattform nutzt, um laufende eigene Rechtsstreitigkeiten medial zu flankieren, betreibt eine Form der Einflussnahme, die demokratische Institutionen — Gerichte eingeschlossen — eigentlich resistent gegen genau diese Art von Druck sein sollten. Mehrere potenzielle Geschworene äußerten offen ihre Distanz zu Musk. Ob die verbleibende Jury tatsächlich unberührt von Musks X-Kampagne entscheidet, ist eine berechtigte Frage.
So What? Was DACH-Entscheider aus diesem Machtspiel lernen können
Für Unternehmen und Entscheider im DACH-Raum ist dieser Konflikt mehr als Unterhaltung aus dem Silicon Valley. Er zeigt exemplarisch, wie die Kontrolle über digitale Infrastruktur — Plattformen, Algorithmen, Reichweite — zu einem strategischen Asset in Auseinandersetzungen jeder Art wird: wirtschaftlichen, juristischen, politischen. Musk nutzt X nicht als Kommunikationsmittel. Er nutzt es als Distributionskanal für eine selektive Realitätskonstruktion zugunsten seiner eigenen Position vor Gericht.
Für den europäischen Kontext ergibt sich daraus eine klare regulatorische Implikation: Der EU AI Act adressiert bislang KI-Systeme und deren Risikostufen — aber die Frage, ob Plattforminhaber ihre algorithmischen Hebel für eigene Rechtsstreitigkeiten einsetzen dürfen, ohne Ad-Transparenzpflichten zu erfüllen, ist eine Lücke im bestehenden Regulierungsrahmen. Der Digital Services Act (DSA) kennt Transparenzpflichten für Werbung auf großen Plattformen, aber die Grauzone zwischen „persönlicher Meinungsäußerung", „Boost" und „politischer Werbung" ist noch nicht abschließend definiert.
Für deutsche Unternehmen, die X als Kommunikationskanal nutzen oder deren PR-Strategie von der organischen Reichweite auf der Plattform abhängt, ist das ein strukturelles Risiko: Die Priorisierung von Inhalten auf X ist nicht neutral. Sie unterliegt den Entscheidungen eines einzigen Eigentümers, der eigene kommerzielle und juristische Interessen verfolgt. Das ist kein theoretisches Problem. Es ist täglich beobachtbar.
Fazit: Ein Präzedenzfall für Plattformkontrolle und KI-Governance
Der Prozess Musk v. Altman wird wahrscheinlich kein eindeutiges Urteil darüber liefern, welche Vision für KI-Entwicklung die richtige ist. Er wird auch nicht klären, ob OpenAIs Weg von der Non-Profit-Mission zur milliardenschweren Unternehmensstruktur rechtlich korrekt war — dafür sind die Fakten zu komplex und die Beweislage zu ambivalent. Was er aber bereits jetzt sichtbar macht: Die Kontrolle über digitale Öffentlichkeit und die Kontrolle über KI-Infrastruktur sind nicht mehr trennbar. Musk nutzt beides gleichzeitig — und tut das ohne nennenswerte regulatorische Gegenwehr.
Die konkrete Prognose: Wenn das Gericht Musk keine nennenswerten Schadensersatzzahlungen zuspricht — was angesichts des Ausschlusses von Strafschadensersätzen und der komplexen Gründungshistorie wahrscheinlich ist — wird der eigentliche Gewinner dieses Prozesses nicht der Kläger sein. Gewonnen hat, wer die Erzählung kontrolliert. Und die läuft gerade über X. Für europäische Regulatoren ist das ein Weckruf: Plattformkontrolle und KI-Entwicklung müssen als integriertes Machtphänomen reguliert werden — nicht als getrennte Sektoren.
❓ Häufig gestellte Fragen
📰 Recherchiert auf Basis von 1 Primärquelle (wired.com)
📚 Quellen