Interne Finanzdokumente, über die das Wall Street Journal berichtete, belegen erstmals mit Zahlen, was Branchenkenner seit längerem vermuteten: Sowohl OpenAI als auch Anthropic weisen Inference-Kosten aus, die mehr als die Hälfte ihrer jeweiligen Einnahmen aufzehren. Die Unternehmen präsentierten Investoren Profitabilitätsprojektionen — teils mit, teils ohne Trainingskosten — und schufen damit eine Transparenzlage, die mehr Fragen aufwirft als beantwortet. Für B2B-Kunden, die heute API-Verträge unterzeichnen, ist das keine abstrakte Bilanzfrage, sondern ein direkter Hebel auf künftige Preisgestaltung.
- Sowohl OpenAI als auch Anthropic kämpfen mit strukturellen Inferenzkosten, die momentan mehr als die Hälfte ihrer lukrativen Einnahmen aufzehren.
- Da beide Anbieter zeitnah an die Börse drängen und Profitabilität nachweisen müssen, entsteht für B2B-Kunden ein enormes Risiko künftiger Preissprünge bei API-Schnittstellen.
- Um einem teuren Vendor-Lock-in zu entgehen, sollten Unternehmen bei ihrer KI-Strategie zwingend auf Multi-Vendor-Ansätze und offene Alternativmodelle setzen.
Der Kontext verschärft die Brisanz: Anthropic erzielte laut Daten des Zahlungsdienstleisters Ramp im Februar und März 2026 eine annualisierte Umsatz-Run-Rate von knapp 19 Milliarden US-Dollar und beansprucht rund 73 Prozent des B2B-API-Markts in den USA — gemessen an Unternehmensausgaben. OpenAI liegt bei rund 25 Milliarden US-Dollar annualisiertem Umsatz (Stand März 2026). Beide Unternehmen planen einen Börsengang. Doch die Zahlen unter der Oberfläche erzählen eine andere Geschichte als die PR-Narrative.
Was die Margin-Struktur tatsächlich aussagt
Anthropics Bruttomarge — berechnet nach Abzug der direkten Serverbetriebskosten für zahlende Nutzer — lag im Vorjahr bei minus 94 Prozent. Inklusive nichtzahlender Nutzer sogar bei minus 109 Prozent. Diese Zahlen stammen aus internen Dokumenten, über die The Information im November 2025 berichtete. Für 2026 prognostiziert Anthropic eine Bruttomarge von plus 50 bis 63 Prozent — ein Sprung, der ausschließlich durch Umsatzwachstum und Skaleneffekte bei der Modelloptimierung erreicht werden soll, nicht durch strukturelle Kostensenkungen auf der Inference-Seite.
Das Muster ist für beide Unternehmen ähnlich: Inferenz — also das Ausführen eines trainierten Modells zur Beantwortung von Nutzeranfragen — ist der operative Kernkostentreiber. Im Gegensatz zu Training, das einmalig anfällt, skaliert Inference linear mit der Nutzung. Jede API-Anfrage, jedes Claude-Code-Completion, jede GPT-gestützte Kundenautomatisierung kostet GPU-Zeit — und GPU-Zeit kostet Geld, das die Anbieter aktuell nicht vollständig über ihre Preismodelle hereinverdienen.
Buchhaltungstricks verschleiern die tatsächliche Vergleichbarkeit
Ein Detail, das im Investoren-Briefing regelmäßig untergeht: OpenAI und Anthropic folgen zwar beide GAAP-Rechnungslegungsstandards, verbuchen Umsätze aber strukturell unterschiedlich. OpenAI gibt bei Verkäufen über Azure nur 20 Prozent des Erlöses als Umsatz aus — der Rest verbleibt bei Microsoft. Anthropic dagegen verbucht den vollen Preis über AWS und Google Cloud als Umsatz und weist die Partnerschaftsgebühren als Marketingkosten aus. Diese Asymmetrie macht direkte Umsatzvergleiche methodisch fragwürdig und erschwert es Investoren, die wahre Kostenstruktur zu beurteilen.
Für die IPO-Readiness beider Unternehmen ist das ein latentes Risiko. OpenAI-CFO Sarah Friar äußerte intern laut The Information Bedenken, ob die massiven Compute-Commitments — Sam Altman soll intern 600 Milliarden US-Dollar Ausgaben über fünf Jahre kommuniziert haben — durch das prognostizierte Umsatzwachstum gedeckt werden können. Friar berichtet seit August 2025 nicht mehr direkt an Altman, sondern an Fidji Simo, die Leiterin des Applikationsbereichs. Eine CFO, die aus Schlüsselmeetings ausgeschlossen wird, kurz vor einem avisierten Börsengang — das ist kein Signal für operative Harmonie.
Was das für B2B-Kunden und die API-Preisgestaltung bedeutet
Für Unternehmen, die heute KI-Infrastruktur aufbauen und dabei auf API-Zugänge von OpenAI oder Anthropic setzen, ergibt sich aus dieser Kostenstruktur ein konkretes strategisches Risiko: Wenn die Anbieter ihre Margen mittelfristig auf ein tragfähiges Niveau heben müssen, werden API-Preise unter Aufwärtsdruck geraten — oder Leistungsumfänge werden eingeschränkt. Bisher war der Preiskampf zwischen den Anbietern ein Vorteil für Abnehmer. Diese Phase könnte enden, sobald IPO-Covenants oder Investorendruck eine Pfadänderung erzwingen.
- Anthropics Umsatzprojektionen implizieren, dass Profitabilität erst ab 2028 realistisch erreichbar ist (Bruttomarge dann prognostiziert: plus 77 Prozent). Bis dahin subventionieren Risikokapitalgeber de facto die günstigen API-Preise für B2B-Kunden.
- OpenAIs strategischer Schwenk Richtung B2B und Coding-Lösungen — berichtet im Wall Street Journal — deutet darauf hin, dass das Unternehmen versucht, höhermargige Anwendungsebenen zu erschließen, statt die reine Inference-Kostenproblematik zu lösen.
- Anthropics B2B-API-Marktanteil (73 Prozent in den USA laut Ramp-Daten, Stand Februar 2026) gibt dem Unternehmen perspektivisch Preissetzungsmacht — sobald der Wettbewerbsdruck nachlässt.
- Vendor-Lock-in: Wer heute tief in Anthropic- oder OpenAI-spezifische Workflows integriert, riskiert, bei künftigen Preisanpassungen keine valide Ausweichoption zu haben.
Deutsche Industrieunternehmen, die KI-Infrastruktur evaluieren, sollten diese strukturelle Asymmetrie in ihre Vendor-Strategie einpreisen. Multi-Vendor-Ansätze und offene Modell-Alternativen — etwa auf Basis von Mistral Small 4 oder Googles Gemma-4-Familie — gewinnen als Absicherung an strategischer Relevanz.
EU AI Act: Was regulatorische Anforderungen mit Kostenstrukturen zu tun haben
Aus regulatorischer Perspektive ist die Inference-Kostenfrage nicht von der Compliance-Frage zu trennen. Seit August 2025 gelten unter dem EU AI Act die GPAI-Regeln, die auch Anbieter von Allzweck-KI-Modellen wie OpenAI und Anthropic verpflichten, Transparenz über Trainingsdaten, Fähigkeiten und Risiken ihrer Modelle herzustellen. Ab August 2026 treten die Kernpflichten für Hochrisiko-KI in Kraft, darunter Dokumentations- und Konformitätsbewertungspflichten.
Diese Compliance-Anforderungen sind nicht kostenneutral. Für Unternehmen, die GPAI-Modelle in geschäftskritische Prozesse integrieren, entstehen zusätzliche Dokumentations- und Prüfpflichten — und mittelbar Abhängigkeiten davon, dass ihr API-Anbieter seinerseits regulatorisch compliant bleibt. Wer heute API-Verträge mit US-Anbietern schließt, sollte explizit regulatorische Audit-Klauseln und Datenlokalisierungsoptionen verhandeln. Verstöße gegen GPAI-Pflichten können Strafen von bis zu 15 Millionen Euro oder drei Prozent des weltweiten Jahresumsatzes nach sich ziehen.
So What? Die strategische Einordnung für Entscheider
Die Inference-Kostenproblematik ist kein vorübergehendes Wachstumsschmerz-Phänomen, das sich mit mehr Umsatz von selbst löst. Sie ist strukturell: Solange Modelle größer werden, Anfragen komplexer und Nutzererwartungen an Echtzeit-Antworten steigen, bleibt der GPU-Hunger der Inference ein dominanter Kostentreiber. Die Prognosen beider Unternehmen basieren auf der Annahme, dass Skaleneffekte bei der Modelloptimierung und Hardware-Effizienzgewinne die Kosten senken werden — eine Wette, die sich historisch oft als optimistischer erwiesen hat als erwartet.
Für C-Level-Entscheider bedeutet das: KI-Budgets, die heute auf Basis aktueller API-Preise kalkuliert werden, enthalten ein strukturelles Repricing-Risiko. Dieses Risiko ist nicht binär — nicht entweder „Preise bleiben stabil" oder „Preise explodieren" — sondern graduell und produktabhängig. Premium-Modelle wie Claude Opus 4.6 oder GPT-5.4 Pro werden tendenziell früher Preisanpassungen erfahren als kleinere, effizientere Modelle. Eine differenzierte Modellstrategie — teures Modell für kritische Entscheidungen, günstiges für Massenoperationen — ist keine Sparmaßnahme, sondern strategische Risikominimierung.
Fazit: Wer die Rechnung zahlt
Aktuell zahlen Risikokapitalgeber die Differenz zwischen Inference-Kosten und Marktpreisen. Mit Milliarden-Finanzierungsrunden und Bewertungen jenseits der 60-Milliarden-Dollar-Marke kaufen sie Zeit. Doch Börsengang-Covenants und Profitabilitätserwartungen institutioneller Investoren werden diese Quersubventionierung beenden. Der Zeitpunkt ist unbekannt; die Richtung ist es nicht. B2B-Kunden, die heute mehrjährige KI-Strategien auf Basis eines einzelnen API-Anbieters aufbauen, sollten Repricing-Szenarien in ihre Wirtschaftlichkeitsberechnungen aufnehmen — und Alternativen technisch evaluiert haben, bevor der Druck zum Wechsel entsteht. Wer das nicht tut, finanziert am Ende die Marge eines IPO-kandidaten mit.
❓ Häufig gestellte Fragen
📚 Quellen
- Wall Street Journal: An Inside Look at OpenAI and Anthropic's Finances Ahead of IPOs
- The Information: The Math Behind Anthropic's Mad Revenue Growth
- Ramp AI Index: March 2026 Update on B2B AI Adoption
- Anthropic: Series G Funding and Financial Projections
- EU Artificial Intelligence Act: Regulatory Timeline and GPAI Obligations