OpenAI erwartet, im laufenden Jahr 2026 rund 50 Milliarden Dollar für Rechenleistung auszugeben. Das gab Greg Brockman, Mitgründer und Präsident des Unternehmens, während seiner Aussage in dem viel beachteten Gerichtsverfahren zwischen OpenAI und Elon Musk bekannt. Es war sein zweiter Verhandlungstag. Die Zahl ist kein Marketing — sie ist ein Einblick in die brutale Kostenstruktur hinter ChatGPT und den Modellen, die OpenAI täglich für Millionen Nutzer betreibt.
- OpenAI-Präsident Greg Brockman hat vor Gericht enthüllt, dass das Unternehmen 2026 rund 50 Milliarden Dollar für Rechenleistung ausgeben wird.
- Der rasante Kostenanstieg beruht auf der Entwicklung komplexerer KI-Modelle und enormen Inferenzkosten durch Hunderte Millionen tägliche Nutzer.
- Diese gigantischen Infrastrukturkosten absorbieren einen Großteil des Cloud-Marktes und dürften mittelfristig die API-Preise für Entwickler erhöhen.
Brockman beschrieb den Aufstieg der Rechenkosten als nahezu vertikale Kurve: Rund 30 Millionen Dollar hat OpenAI laut seiner Aussage im Jahr 2017 für Computing ausgegeben. Heute — also 2026 — sind es Zehner-Milliarden-Beträge, die im laufenden Jahr auf rund 50 Milliarden Dollar anwachsen sollen. Das entspricht einem Anstieg um mehr als das Tausendfache innerhalb von knapp einem Jahrzehnt. Dieser Zuwachs ist kein Zufall, sondern direkte Konsequenz zweier paralleler Entwicklungen: OpenAI baut immer leistungsfähigere Modelle — und stellt sie gleichzeitig einer immer breiteren Nutzerbasis zur Verfügung. Inferenzkosten, also die Kosten, die jedes Mal entstehen, wenn ein Modell eine Anfrage beantwortet, summieren sich bei hunderten Millionen Nutzern enorm.
Der Kontext, in dem Brockman diese Zahlen nannte, ist bedeutsam. Das Verfahren zwischen OpenAI und Elon Musk zwingt das Unternehmen zu einer Offenheit, die es in normalen Pressemitteilungen selten zeigt. Was hinter verschlossenen Türen als interne Infrastrukturplanung behandelt wird, landet im Gerichtssaal als belegbarer Fakt. Für Beobachter des KI-Markts ist das ein seltener Datenpunkt: eine öffentlich bestätigte Zahl über die tatsächliche operative Kostendimension von OpenAI — nicht eine Prognose aus einer Investorenpräsentation, sondern eine eidesstattliche Aussage ihres Präsidenten. Das setzt den Maßstab, an dem sich Wettbewerber messen lassen müssen.
Zum Vergleich: Der gesamte globale Cloud-Infrastrukturmarkt wird von Analysten auf einen dreistelligen Milliarden-Dollar-Bereich geschätzt. OpenAI allein plant also, mit seinen Computing-Ausgaben einen signifikanten Anteil davon zu absorbieren. Das hat direkte Folgen für Chip-Hersteller, Rechenzentrum-Betreiber und Cloud-Anbieter — aber auch für Wettbewerber wie Anthropic, Google DeepMind oder xAI, die in einem Markt operieren, in dem Rechenleistung inzwischen ein strategischer Engpassfaktor ist. Wer die Chips sichert, bestimmt, wie schnell neue Modelle trainiert und ausgerollt werden können.
Für DACH-Unternehmen, die auf OpenAI-APIs setzen oder entsprechende Angebote in ihre Produkte integrieren, ist diese Zahl ein Indikator: Die Infrastrukturkosten, die OpenAI schultern muss, fließen letztlich in die Preisgestaltung der APIs ein. Kurzfristige Preissenkungen sind denkbar, wenn Skaleneffekte greifen — mittelfristig ist ein Kostendruck in der gesamten Branche realistisch. Wer heute Preismodelle für KI-gestützte Produkte kalkuliert, sollte das einpreisen.
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen