These: OpenAI und Microsoft bauen ihre Partnerschaft von einem Exklusiv-Deal zu einem kontrollierten Multi-Cloud-Vertrag um – und verschieben damit die Verhandlungsmacht im KI-Stack weg vom Cloud-Anbieter hin zum Modellanbieter. Der Kern ist nicht, dass sich zwei Tech-Giganten wieder vertragen. Der Kern ist: OpenAI kann seine Produkte künftig „across any cloud provider“ ausrollen, während Microsoft sich über Lizenzrechte, Umsatzbeteiligung und Aktienanteile finanziell absichert. Für dich als Entscheider ist das ein Signal, dass die nächste Verhandlungsrunde im KI-Einkauf nicht mehr „Azure oder nichts“ heißt, sondern „Modelle, Laufzeiten, Revenue-Share, Exit-Klauseln“.
- Die Neuverhandlung des Vertrags beendet die bisherige Azure-Exklusivität und ermöglicht OpenAI, KI-Modelle zukünftig auch auf konkurrierenden Plattformen wie AWS anzubieten.
- Im Gegenzug sichert sich Microsoft im Rahmen des Deals eine weitreichende, nicht-exklusive IP-Lizenz bis 2032 sowie eine gedeckelte Umsatzbeteiligung bis ins Jahr 2030.
- Auslöser war ein drohender rechtlicher Konflikt um OpenAIs Milliarden-Partnerschaft mit Amazon, die nun den Weg für fortschrittliche Agenten-Technologien auf AWS freimacht.
Auslöser war ein Konflikt, der seit OpenAIs „up-to-$50-billion deal“ mit Amazon im Raum stand. Microsoft hatte bislang exklusive Rechte an OpenAIs IP und daran, wie API-Produkte gehostet werden. Amazon bekam in der OpenAI-Partnerschaft aber exklusive Zusagen rund um eine Agenten-Plattform („Frontier“) und gemeinsame Entwicklung einer „stateful runtime technology“ auf AWS Bedrock. Das passte nicht zusammen. Die Neuverhandlung beendet dieses juristische Damoklesschwert, setzt erstmals eine klare Zeitachse und macht Multi-Cloud vertraglich möglich.
Wichtig: Das ist kein romantisches „Peace“-Signal. Es ist ein Deal-Engineering, das drei Dinge gleichzeitig löst: (1) OpenAI bekommt Distribution und Verhandlungsoptionen, (2) Microsoft reduziert Rechts- und Reputationsrisiken, (3) Enterprises gewinnen Auswahl. Der Preis dafür ist Komplexität: „first on Azure“ bleibt schwammig, Revenue-Share-Kappen sind nicht transparent, und IP-Lizenzen bis 2032 schaffen neue Abhängigkeiten.
Warum dieser Deal mehr ist als ein Cloud-Feature: Vertragslogik statt PR
Microsoft und OpenAI haben am Montag erneut ihren Vertrag neu verhandelt. Im offiziellen Framing gehen „both sides are walking away winners“. Das klingt nach PR, aber der Text im Umfeld zeigt harte Kanten: Der bisherige Mechanismus – Exklusivität bis zum Eintreten eines schwer definierbaren Ereignisses (AGI) – wird durch eine konkrete Laufzeit ersetzt. Microsoft erhält „a nonexclusive license to OpenAI IP for models and products through 2032“. Allein diese Zeile ist eine tektonische Verschiebung, weil sie die frühere Logik „alles gehört Microsoft, bis AGI“ aufbricht und in eine normale Vertragswelt überführt.
Warum musste das passieren? Weil OpenAI in kurzer Folge mehrere Partnerlogiken übereinander gelegt hat: Microsoft als „primary cloud partner“ auf Azure, dazu Amazons Investment- und Entwicklungsdeal, dazu die Ambition, eigene Rechenzentren „with other partners“ zu bauen. Exklusivität ist in so einer Struktur nicht mehr skalierbar. Du kannst nicht gleichzeitig ein globales Distributionsprodukt sein und dich über eine einzige Cloud verkaufen lassen, wenn deine anderen Deals Exklusivrechte enthalten.
Das Spannende ist, wie der Deal die Spannungen entschärft, ohne Microsoft aus dem Spiel zu drängen. Microsoft bleibt „primary cloud partner“, also wird „the bulk of OpenAI’s cloud“ voraussichtlich über Azure laufen – ausdrücklich für die „six years this deal covers“. Parallel gilt: Produkte shippen „first on Azure, unless Microsoft cannot and chooses not to support the necessary capabilities“. Und dann der entscheidende Satz: „OpenAI can now serve all its products to customers across any cloud provider.“
Das ist ein Dreiklang aus Bindung, Priorisierung, Freiheit. Genau darin steckt die Strategie. Bindung: Azure bleibt das Default-Ziel für den Großteil der Workloads. Priorisierung: „first on Azure“ ist ein Verhandlungshebel für Microsoft im Enterprise-Vertrieb. Freiheit: OpenAI kann kommerziell auf AWS (und grundsätzlich überall) verkaufen und damit die Amazon-Vereinbarung erfüllen.
Der Haken: „first“ ist nicht sauber definiert. Im Klartext: Für Kunden bleibt unklar, ob es eine Exklusivfrist gibt oder nur einen Marketing-Vorsprung. Für Procurement-Teams ist das relevant, weil es Verfügbarkeits- und Roadmap-Risiken erzeugt. Wer „first on Azure“ hört, muss nachfragen: Heißt das Tage, Wochen, Quartale – oder nur, dass Azure am Launch-Tag ebenfalls gelistet ist?
Wenn du diese Vertragslogik auf DACH-Einkauf überträgst, ist die Lektion simpel: Du verhandelst künftig nicht mehr nur Preise pro Token oder Commitments für Compute, sondern auch IP-Nutzungsrechte, Cloud-Portabilität, Release-Prioritäten und Exit-Szenarien. Genau das passiert hier – im großen Maßstab.
Der Amazon-Knoten: $50B, Frontier-Exklusivität und „stateful runtime“
Der Deal dreht sich nicht um ein abstraktes „Multi-Cloud ist gut“. Er dreht sich um ein sehr konkretes Problem: OpenAI hatte im Februar angekündigt, dass Amazon „up to $50 billion“ investiert, bestehend aus „a $15 billion initial investment“ und „another $35 billion“ „in the coming months when certain conditions are met“. Diese „certain conditions“ wurden nicht spezifiziert. Für Analysten ist das eine klassische Konstruktion: Geld ist an operative und/oder regulatorische Trigger gekoppelt, aber der Markt sieht nur die Headline-Zahl.
Als Gegenleistung verpflichtete sich OpenAI, auf AWS Bedrock eine „stateful runtime technology“ mitzuentwickeln. Im Originaltext wird das als Technologie beschrieben, die „AI agents“ unterstützt und ihnen erlaubt, sich „tasks and contexts for long periods of time“ zu merken. Das ist nicht nur ein Produktdetail. Das ist die Infrastruktur-Schicht für agentische Systeme, also für Workflows, die über Sessions hinaus Kontext halten und Aufgabenketten abarbeiten. Wenn du Agenten im Enterprise skalieren willst, wird genau diese Persistenz zum Bottleneck – technisch und organisatorisch.
Zusätzlich versprach OpenAI, dass AWS exklusive Rechte bekommt, um das neue Agenten-Tool „Frontier“ bereitzustellen. Und genau hier kollidierte der Amazon-Deal mit Microsofts Altvertrag. Denn Microsoft hatte zwar „certain select products“ auf anderen Clouds erlaubt, etwa Consumer-ChatGPT. Gleichzeitig behielt Microsoft „exclusive rights to any OpenAI product accessed through an API“. Frontier als Agenten-Baukasten fällt logisch in diese Kategorie.
Die Eskalation wurde öffentlich, als Microsoft am Tag des AWS-Deals die AWS-exklusiven Terms „publicly refuted“ und in einem Blogpost betonte, Microsoft halte an der exklusiven Lizenz und dem Zugriff auf IP fest. Wörtlich hob Microsoft hervor: „Azure remains the exclusive cloud provider of stateless OpenAI APIs.“ Außerdem: „OpenAI’s first party products, including Frontier, will continue to be hosted on Azure.“ Das ist nicht nur ein Statement, das ist eine Vertragsauslegung in der Öffentlichkeit – ein Warnsignal, dass man notfalls vor Gericht gehen würde.
Dass dieses Risiko real war, unterstreicht die Passage, dass die Financial Times berichtete, Microsoft habe „contemplated legal action“ zur Durchsetzung. Das ist die klassische Situation, in der ein Partner nicht mehr nur verhandelt, sondern seine juristische Option sichtbar macht. Danach wird jeder weitere Deal mit Dritten schwer, weil alle Counterparties das Litigation-Risiko einpreisen.
Die neue Vereinbarung „solves the possibility that Microsoft could sue OpenAI over the AI lab’s deal with Amazon“. Das ist die operative Bedeutung: OpenAI kann AWS-Exklusiv-Elemente liefern, ohne dass Microsoft das als Vertragsbruch auslegt. Für Amazon heißt das: OpenAI-Modelle sollen auf Bedrock verfügbar werden. Andy Jassy feierte das öffentlich auf X und schrieb, OpenAI-Modelle würden „in the coming weeks“ direkt für Kunden auf Bedrock verfügbar. Diese Kommunikation ist nicht Beiwerk, sondern Teil des Commitments gegenüber Entwicklern und Enterprise-Kunden.
Microsofts Gegenleistung: Revenue-Share bis 2030, Lizenz bis 2032, Anteil am Upside
Wer nur auf „OpenAI gewinnt, Microsoft verliert“ schaut, übersieht die ökonomische Konstruktion. Microsoft bekommt drei Sicherungen. Erstens: Microsoft muss „stop paying a revenue share to OpenAI“, während OpenAI „will continue to pay a revenue share to Microsoft through 2030“, allerdings „subject to a cap“. Die Details des Caps werden nicht offengelegt, aber das Muster ist klar: Microsoft dreht die Richtung des Cashflows um und begrenzt gleichzeitig das Risiko, dass OpenAI auf ewig an Revenue-Share hängt.
Zweitens: die bereits genannte IP-Lizenz „through 2032“. Nicht-exklusiv heißt nicht wertlos. Es heißt: Microsoft kann OpenAI-IP weiter nutzen, auch wenn OpenAI parallel auf AWS verkauft. Für Microsofts Produkt-Portfolio ist das Absicherung gegen einen plötzlichen Bruch. Für OpenAI ist es der Preis für Freiheit. Die Kombination aus Revenue-Share und IP-Lizenz ist ein klassischer „unlock distribution, keep the economics“-Trade.
Drittens: Microsoft bleibt Aktionär. Im Text steht, Microsoft besitze „about 27% of the for-profit entity“, wie es „in October“ gesagt habe. Das heißt: Microsoft profitiert finanziell sogar dann, wenn OpenAI auf AWS Umsätze macht. Für Microsoft ist das die elegante Lösung, um nicht jeden Deal operativ zu gewinnen, aber am Gesamterfolg beteiligt zu bleiben.
Ein Punkt wird im Original besonders greifbar: „Exactly how much cash will flow to Microsoft is hard to tell, but it’s likely in the billions.“ Und dann kommt eine überprüfbare Zahl als Anker: „Last quarter, Microsoft reported that it made $7.5 billion in a single quarter from its investment in OpenAI.“ Diese Zahl zeigt, warum Microsoft überhaupt in der Lage ist, Exklusivität aufzugeben: Der Return aus der Beteiligung ist groß genug, dass man nicht auf jeden Azure-Umsatz angewiesen ist, der durch Exklusivität entsteht.
Natürlich gibt es eine Kehrseite: Microsoft „loses out on any extra cloud services“ aus einer exklusiven Bindung. Im Klartext: Weniger Zwangsbündelung von OpenAI und Azure. Dass Microsoft das akzeptiert, kann man als strategische Anpassung lesen: Microsoft baut parallel Beziehungen zu Wettbewerbern von OpenAI. Im Text wird eine „cozy relationship“ mit Anthropic erwähnt, um „agentic products“ zu powern. Die Botschaft: Microsoft diversifiziert Modellrisiko und macht sich unabhängiger vom OpenAI-Alleingang.
Für Enterprise-Kunden ist das ein Netto-Gewinn: „enterprises … get to choose their models and their clouds while the giants compete“. Das ist kein altruistisches Geschenk. Es ist das Ergebnis davon, dass Exklusivität in einer Phase, in der Modelle, Clouds und Agentenplattformen parallel wachsen, zu teuer wird.
Was dagegen spricht: „First on Azure“ bleibt eine Blackbox, und Agenten erhöhen Lock-in-Risiken
Die Schwachstelle des Arguments „Multi-Cloud macht alles besser“ steckt im Kleingedruckten und in der Technik. Erstens: „first on Azure“ ist unklar. Solange niemand definiert, ob es eine Exklusivperiode gibt, bleibt für Kunden ein Timing-Risiko. Wer seine Architektur auf AWS oder GCP plant, könnte bei wichtigen Releases hinten anstehen. Diese Unsicherheit kann Procurement dazu treiben, trotzdem Azure als primären Deployment-Pfad zu wählen – nicht aus Überzeugung, sondern aus Angst vor Verzögerungen.
Zweitens: „unless Microsoft cannot and chooses not to support the necessary capabilities“ klingt wie eine Escape-Klausel zugunsten von OpenAI. Praktisch ist sie aber interpretationsfähig. Was sind „necessary capabilities“? Performance? Compliance? Ein spezieller Accelerator? Ein Managed Service? In Streitfällen wird daraus ein Beweisproblem. Und Beweisprobleme sind genau die Dinge, die man als Enterprise vermeiden will.
Drittens: Der technische Kern des Amazon-Deals – „stateful runtime“ für Agenten – ist selbst ein Lock-in-Treiber. „Stateful“ heißt: Gedächtnis, Kontext, Langläufer-Workflows. Das hängt an Speicher, Identitäten, Observability, Policy und Datenzugriff. Wenn diese Schicht eng an AWS Bedrock gekoppelt entwickelt wird, entstehen Abhängigkeiten, die du nicht mit einem simplen Modell-Swap löst. Multi-Cloud auf der Modell-Ebene kann trotzdem zu Single-Platform auf der Agenten-Ebene werden.
Viertens: Die neue IP-Lizenz bis 2032 kann Innovation bremsen, wenn sie zu breit gefasst ist. Nicht-exklusiv schützt OpenAI vor Blockade, aber Microsoft bleibt damit in der Lage, OpenAI-IP in eigenen Angeboten zu nutzen. Wenn du als Marktbeobachter auf Differenzierung schaust, ist das ein zweischneidiges Schwert: OpenAI gewinnt Distribution, Microsoft gewinnt „good enough“ Zugriff auf die Kern-IP. Wer daraus langfristig die bessere Marge zieht, hängt davon ab, wie Produkte paketiert werden und wer den Enterprise-Vertrieb dominiert.
Und schließlich: Revenue-Share bis 2030 „subject to a cap“ ist intransparent. Intransparenz ist für Märkte normal, für Enterprise-Verträge aber oft ein Warnsignal. Wenn du als CIO oder Head of Procurement ähnliche Konstrukte angeboten bekommst, solltest du das als Muster erkennen: Cap und Laufzeit sind die eigentlichen Preishebel, nicht die Prozentzahl.
So What? Multi-Cloud wird verhandelbar – und genau das musst du jetzt einkaufen
Für DACH-Unternehmen ist diese Neuordnung vor allem ein Einkaufs- und Governance-Thema. Du solltest Multi-Cloud nicht mehr als Technikpräferenz behandeln („wir sind halt Azure“), sondern als Vertragsziel: Portabilität, Auditierbarkeit und Exit-Fähigkeit. Wenn selbst ein Hyperscaler wie Microsoft seine Exklusivität gegenüber OpenAI aufgibt und stattdessen auf Lizenzrechte bis 2032 plus Revenue-Share bis 2030 setzt, dann ist die Zeit der „One-Cloud-to-rule-them-all“-Narrative vorbei. Die harte Frage lautet: Welche Abhängigkeit akzeptierst du – Cloud, Modell, Agenten-Runtime oder Datenlayer?
Heißt im Alltag: Wenn du Agenten evaluierst, musst du die „stateful runtime“-Schicht explizit in den Scope nehmen. Frage nach Datenresidenz, Observability, Memory-Löschkonzepten und der Portabilität der Agenten-Zustände. Gerade im EU-Kontext ist das brisant, weil personenbezogene Daten in Agenten-Workflows schnell in Langzeit-Kontext rutschen. Hier greift die DSGVO-Logik unmittelbar: Wer Kontext speichert, speichert potenziell personenbezogene Daten. Das ist DSFA-Territorium, nicht nur „cooles Feature“.
Zum EU AI Act: Seit August 2025 gelten Regeln für GPAI, Governance und Strafen. Auch wenn der Deal selbst ein US-Vertrag ist, wirkt er in deinen Beschaffungsprozess hinein, weil er bestimmt, über welche Clouds du Modelle beziehst und welche Nachweise du von welchem Anbieter forderst. Wenn OpenAI seine Produkte „across any cloud provider“ ausrollen kann, musst du sicherstellen, dass du Compliance-Artefakte (Dokumentation, Logs, Kontrollmechanismen) konsistent bekommst – unabhängig davon, ob du über Azure oder AWS einkaufst.
Konkrete Handlungsempfehlung: Baue deine KI-Verträge wie kritische Softwarelieferverträge. Verlange Klarheit über Release-Prioritäten („first on Azure“ als Definition), SLA-Gleichwertigkeit über Clouds, und eine Exit-Klausel für Agenten-Zustände (Export/Deletion). Wenn du das nicht tust, bekommst du formal Multi-Cloud, aber operativ einen neuen Lock-in – nur diesmal auf der Agenten- und Datenebene.
Fazit: OpenAI wird zum Multi-Cloud-Anbieter – mit hoher Wahrscheinlichkeit als neuer Standard
OpenAI und Microsoft zeigen, wie die nächste Phase der KI-Plattform-Ökonomie aussieht: weniger Exklusivität, mehr Vertragsarchitektur. OpenAI erhält mit der nicht-exklusiven IP-Lizenz bis 2032 und der Erlaubnis, Produkte über „any cloud provider“ zu bedienen, den Distributionshebel, den ein Modellanbieter im Enterprise-Markt braucht. Microsoft kompensiert den Verzicht auf Exklusivität über Revenue-Share bis 2030 (mit Cap), über die Beteiligung von „about 27%“ am For-Profit-Arm und über die Lizenzrechte bis 2032. Das ist kühl gerechnet.
Meine Prognose: Mit hoher Wahrscheinlichkeit wird dieses Muster – „primary cloud partner“ plus Multi-Cloud-Vertrieb plus Revenue-Share – in den kommenden Jahren auf weitere Modellanbieter und Cloud-Deals durchschlagen. Wenn/Dann-Klausel: Wenn Agenten-Plattformen mit „stateful runtime“ zum Enterprise-Standard werden, dann wird die eigentliche Lock-in-Schlacht nicht mehr beim Modell stattfinden, sondern bei Memory, Tooling und Governance. Genau dort solltest du deine Architektur- und Vertragsentscheidungen ansetzen – bevor du die ersten hundert Workflows produktiv hast.
Wer jetzt einkauft, sollte nicht fragen „Azure oder AWS?“, sondern: „Welche Schicht darf uns binden – und wie kaufen wir uns die Option frei?“ Das ist die eigentliche Lehre aus diesem Deal.
❓ Häufig gestellte Fragen
✅ 8 Claims geprüft, davon 4 mehrfach verifiziert
📚 Quellen