PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

Uber & AWS: Ride-Hailing-Riese setzt auf Amazons Custom-Chips statt Nvidia

Uber erweitert seine AWS-Partnerschaft und setzt künftig auf Amazons Graviton4 und Trainium3 – auf Kosten bisheriger Oracle- und Google-Workloads. Was das für Enterprise-Infrastruktur bedeutet.

Uber & AWS: Ride-Hailing-Riese setzt auf Amazons Custom-Chips statt Nvidia
📷 KI-generiert mit Flux 2 Pro

Uber weitet seinen AWS-Vertrag aus und verlagert zentrale KI-Workloads auf Amazons hauseigene Chip-Architektur: Der ARM-basierte Graviton4-Prozessor übernimmt operative Aufgaben wie Echtzeit-Fahrtabgleich, Routenoptimierung und Nachfragevorhersage, während der Trainium3 – Amazons Antwort auf Nvidia – für großangelegte Machine-Learning-Workloads und Modelltraining getestet wird. Das gab Amazon am 7. April 2026 bekannt. Damit rückt Uber von seiner seit Februar 2023 betriebenen Dual-Cloud-Strategie mit Oracle Cloud Infrastructure und Google Cloud Platform merklich ab.

⚡ TL;DR
  • Uber verlagert seine zentralen KI-Workloads von Google und Oracle auf Amazons hauseigene Chip-Architekturen Graviton4 und Trainium3.
  • Dieser strategische Hardware-Wechsel soll die Infrastrukturkosten senken und Ubers Abhängigkeit von teuren Nvidia-GPUs reduzieren.
  • Für Unternehmen beweist der Deal die Kosteneffizienz von Custom-Chips, erfordert bei Cloud-Migrationen in der EU aber eine DSGVO-Prüfung.

Der Schritt folgt einem klaren Muster im Enterprise-Markt: Anthropic, OpenAI und Apple haben ihre AWS-Nutzung ebenfalls ausgebaut – jeweils mit Verweis auf die hauseigenen Amazon-Chips. AWS-Chef Andy Jassy erklärte Ende 2025, dass Trainium bereits ein Multimilliarden-Dollar-Geschäft sei. Für Uber ist die Kostenoptimierung bei Inference- und Training-Workloads der erklärte Treiber: Proprietary-Hardware soll langfristig die Abhängigkeit von teuren GPU-Kapazitäten auf dem offenen Markt reduzieren. Oracle bewegt sich derweil in die entgegengesetzte Richtung – Larry Ellison gab bekannt, eigene chip-Designs aufzugeben und stattdessen massiv auf Nvidia-Hardware zu setzen, um Rechenzentren für OpenAI und das Stargate-Projekt zu betreiben.

Strategische Neuausrichtung der Cloud-Infrastruktur

Für Enterprise-Architekten im DACH-Raum liefert dieser Deal ein klares Signal: Die Ära der rein GPU-zentrischen KI-Infrastruktur wird durch anwendungsspezifische Chip-Architekturen herausgefordert. Wer heute Cloud-Verträge neu verhandelt, sollte Custom-Silicon-Optionen explizit in die Evaluation einbeziehen – nicht als Experiment, sondern als ernstzunehmende Kostenkomponente bei Inference-intensiven Anwendungen. Für Unternehmen in der EU gilt dabei: Wechsel der Cloud-Infrastruktur können DSGVO-relevante Implikationen haben, insbesondere wenn personenbezogene Daten auf neuen Chip-Architekturen oder in veränderten Rechenzentrumsregionen verarbeitet werden – eine Datenschutz-Folgenabschätzung nach Art. 35 DSGVO ist in solchen Fällen ratsam.

❓ Häufig gestellte Fragen

Welche Chips von Amazon nutzt Uber für seine KI-Aufgaben?
Uber setzt künftig auf den ARM-basierten Graviton4-Prozessor für operative Aufgaben wie Routenoptimierung und Echtzeit-Fahrtabgleiche. Für umfangreiches Machine-Learning-Training und komplexe Modelltests kommt zudem der Trainium3-Chip als Alternative zu Nvidia zum Einsatz.
Warum verabschiedet sich Uber von seiner bisherigen Cloud-Strategie?
Uber möchte durch den Einsatz von Amazons proprietärer Hardware vor allem die enormen Kosten für anspruchsvolle Trainings- und Inferenz-Workloads signifikant senken. Gleichzeitig reduziert das Unternehmen dadurch langfristig seine starke Abhängigkeit von teuren Nvidia-GPUs.
Was bedeutet diese Entwicklung für europäische Unternehmen?
Enterprise-Architekten sollten bei Neuverhandlungen von Cloud-Verträgen anwendungsspezifische Custom-Chips explizit als kostensenkende Alternative prüfen. Da solche Infrastrukturwechsel datenschutzrechtliche Fragen aufwerfen, ist vorab eine Folgenabschätzung gemäß DSGVO empfehlenswert.
Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude 4.6.

📬 KI-News direkt ins Postfach