Uber weitet seinen AWS-Vertrag aus und verlagert zentrale KI-Workloads auf Amazons hauseigene Chip-Architektur: Der ARM-basierte Graviton4-Prozessor übernimmt operative Aufgaben wie Echtzeit-Fahrtabgleich, Routenoptimierung und Nachfragevorhersage, während der Trainium3 – Amazons Antwort auf Nvidia – für großangelegte Machine-Learning-Workloads und Modelltraining getestet wird. Das gab Amazon am 7. April 2026 bekannt. Damit rückt Uber von seiner seit Februar 2023 betriebenen Dual-Cloud-Strategie mit Oracle Cloud Infrastructure und Google Cloud Platform merklich ab.
- Uber verlagert seine zentralen KI-Workloads von Google und Oracle auf Amazons hauseigene Chip-Architekturen Graviton4 und Trainium3.
- Dieser strategische Hardware-Wechsel soll die Infrastrukturkosten senken und Ubers Abhängigkeit von teuren Nvidia-GPUs reduzieren.
- Für Unternehmen beweist der Deal die Kosteneffizienz von Custom-Chips, erfordert bei Cloud-Migrationen in der EU aber eine DSGVO-Prüfung.
Der Schritt folgt einem klaren Muster im Enterprise-Markt: Anthropic, OpenAI und Apple haben ihre AWS-Nutzung ebenfalls ausgebaut – jeweils mit Verweis auf die hauseigenen Amazon-Chips. AWS-Chef Andy Jassy erklärte Ende 2025, dass Trainium bereits ein Multimilliarden-Dollar-Geschäft sei. Für Uber ist die Kostenoptimierung bei Inference- und Training-Workloads der erklärte Treiber: Proprietary-Hardware soll langfristig die Abhängigkeit von teuren GPU-Kapazitäten auf dem offenen Markt reduzieren. Oracle bewegt sich derweil in die entgegengesetzte Richtung – Larry Ellison gab bekannt, eigene chip-Designs aufzugeben und stattdessen massiv auf Nvidia-Hardware zu setzen, um Rechenzentren für OpenAI und das Stargate-Projekt zu betreiben.
Strategische Neuausrichtung der Cloud-Infrastruktur
Für Enterprise-Architekten im DACH-Raum liefert dieser Deal ein klares Signal: Die Ära der rein GPU-zentrischen KI-Infrastruktur wird durch anwendungsspezifische Chip-Architekturen herausgefordert. Wer heute Cloud-Verträge neu verhandelt, sollte Custom-Silicon-Optionen explizit in die Evaluation einbeziehen – nicht als Experiment, sondern als ernstzunehmende Kostenkomponente bei Inference-intensiven Anwendungen. Für Unternehmen in der EU gilt dabei: Wechsel der Cloud-Infrastruktur können DSGVO-relevante Implikationen haben, insbesondere wenn personenbezogene Daten auf neuen Chip-Architekturen oder in veränderten Rechenzentrumsregionen verarbeitet werden – eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO ist in solchen Fällen ratsam.