Meta Platforms hat eine weitreichende Vereinbarung mit Amazon getroffen, die die Nutzung von Amazons speziell entwickelten Chips für künstliche Intelligenz (KI) vorsieht. Der Deal, dessen Volumen sich laut Marktberichten auf mehrere Milliarden Dollar beläuft, unterstreicht Metas Bestrebungen, seine KI-Infrastruktur zu diversifizieren und die Abhängigkeit von einzelnen Hardware-Anbietern zu verringern.
- Meta investiert mehrere Milliarden Dollar, um Amazons hauseigene KI-Chips in seinen Rechenzentren einzusetzen.
- Durch die Integration von AWS-Prozessoren diversifiziert Meta seine Hardware-Lieferkette und reduziert die Abhängigkeit von Einzelanbietern.
- Für Amazon bedeutet der Großauftrag einen strategischen Meilenstein, der das Unternehmen als starke Konkurrenz im KI-Hardwaremarkt etabliert.
Im Rahmen dieser Partnerschaft wird Meta die auf KI-Training und -Inferenz zugeschnittenen Chips von Amazon in seinen Rechenzentren einsetzen. Diese Prozessoren, die Amazon Web Services (AWS) ursprünglich für die eigenen Cloud-Dienste konzipiert hat, sollen Metas Kapazitäten bei der Bereitstellung moderner KI-Modelle maßgeblich unterstützen. Meta hat allein für das Jahr 2026 Investitionen in Höhe von rund 40 Milliarden Dollar für seine KI-Infrastruktur angekündigt.
Strategische Diversifizierung der Hardware-Basis
Die Kooperation zwischen den beiden Tech-Giganten markiert einen Wendepunkt in Metas Hardware-Strategie. Während das Unternehmen bisher massiv in NVIDIA-GPUs investierte – mit einem geschätzten Bestand von über 600.000 H100-Äquivalenten bis Ende 2024 – setzt Mark Zuckerberg nun verstärkt auf eine Multi-Vendor-Strategie. Erst kürzlich weitete Meta seine Zusammenarbeit mit Broadcom für die Entwicklung eigener MTIA-Chips (Meta Training and Inference Accelerator) aus und schloss einen milliardenschweren Deal mit AMD ab.
Für Amazon bedeutet der Deal einen bedeutenden Erfolg für seine chip-Sparte. Mit einem jährlichen Umsatzlauf von über 20 Milliarden Dollar im Hardware-Bereich beweist AWS, dass seine Eigenentwicklungen wie Trainium 3 auch für externe Hyperscaler attraktiv sind. Experten sehen darin einen direkten Angriff auf die Marktdominanz von NVIDIA, da spezialisierte ASICs (Application-Specific Integrated Circuits) oft eine höhere Energieeffizienz bei spezifischen KI-Workloads bieten.
❓ Häufig gestellte Fragen
✅ 7 Claims geprüft, davon 4 mehrfach verifiziert
📚 Quellen