Intel sieht CPU als Schlüssel zur KI-Zukunft trotz Fertigungsproblemen
Intel setzt auf KI-Inferenz und agentische Workloads, um die CPU wieder als Kernkomponente zu etablieren und Marktanteile zu gewinnen.
- Intel positioniert die klassische CPU durch einen strategischen Fokus auf KI-Inferenz und agentische Workloads als neues Zentrum der Rechenleistung.
- Dank eines stark wachsenden KI-Geschäfts, das 60 Prozent der Einnahmen ausmacht, verzeichnete der Konzern im ersten Quartal 2026 einen Umsatz von 13,6 Milliarden US-Dollar.
- Vielversprechende Partnerschaften und ein effizientes CPU-GPU-Verhältnis überzeugten die Investoren und ließen den Aktienkurs nachbörslich um bis zu 20 Prozent ansteigen.
Intel setzt auf KI-Inferenz und agentische Workloads, um die CPU wieder als Kernkomponente zu etablieren und Marktanteile zu gewinnen.
Intel setzt auf KI-Inferenz und agentische Workloads, um die CPU wieder als Kernkomponente zu etablieren und Marktanteile zu gewinnen.
Intel setzt auf Künstliche Intelligenz, um seine Position im Chipmarkt zu stärken. CEO Lip-Bu Tan äußerte sich auf der Q1 2026 Gewinnmitteilung zuversichtlich, dass Inferenz- und agentische Workloads die CPU wieder ins Zentrum der Rechenleistung rücken werden. Dies geschieht, obwohl Intel weiterhin mit Herausforderungen in der Chipfertigung kämpft.
Tan prognostiziert, dass KI den gesamten adressierbaren Chipmarkt auf eine Billion US-Dollar anwachsen lässt. Er sieht Anzeichen dafür, dass die CPU zunehmend als grundlegende Komponente in der KI-Ära unverzichtbar wird, nachdem in den letzten Jahren GPUs und andere Beschleuniger dominierten.
Die Verlagerung von KI-Workloads aus dem Rechenzentrum in die physische Welt, etwa auf Agenten, Roboter und Edge-Geräte, schafft laut Tan neue Chancen für Intel. Er betont, dass der Inferenz-Markt und die physische KI deutlich wachsen werden. Dies sei nicht nur Wunschdenken, sondern spiegele sich in Kundenrückmeldungen und der Nachfrage nach Intel-Produkten wider.
Um diese Versprechen einzulösen, muss Intel jedoch die entsprechenden Produkte liefern. Das Unternehmen hatte in den letzten Jahren mit Verzögerungen bei wichtigen Chips und der Einstellung anderer Projekte zu kämpfen, darunter Versuche, eine konkurrenzfähige GPU für KI-Training zu entwickeln.
Lip-Bu Tan berichtete von Fortschritten beim Fertigungsprozess Intel 14A, der Intels Foundry-Geschäft zum Erfolg verhelfen soll. Erste Design-Verpflichtungen werden ab der zweiten Jahreshälfte 2026 erwartet. Finanzchef David Zinsner meldete für das erste Quartal einen Umsatz von 13,6 Milliarden US-Dollar, wobei KI-bezogene Geschäftsbereiche 60 Prozent dazu beitrugen, ein Anstieg von 40 Prozent im Jahresvergleich.
Als Beispiele für Erfolge im KI-Bereich nannte Zinsner die Auswahl des Xeon 6 als Host-CPU für Nvidias DGX Rubin NVL8-Systeme. Lip-Bu Tan verwies zudem auf eine langfristige Vereinbarung mit Google zur Mitentwicklung von Infrastructure Processing Units (IPUs).
Zinsner hob hervor, dass das Verhältnis von CPUs zu GPUs sich im Inferenz-Bereich verändert. Während bei Trainingslösungen oft acht GPUs auf eine CPU kommen, liege das Verhältnis bei Inferenz bei etwa drei oder vier zu eins. Bei agentischen und Multi-Agenten-Anwendungen könnte sich das Verhältnis sogar umkehren.
Eine mögliche Zusammenarbeit mit Elon Musks „Terafab“-Projekt, das auf die Produktion großer Mengen von KI-Chips abzielt, wurde von Lip-Bu Tan angedeutet. Er äußerte sich jedoch zurückhaltend und verwies auf eine gemeinsame Vision zur Bewältigung der Lieferkettenherausforderungen. Nach diesen Ankündigungen stieg Intels Aktienkurs im nachbörslichen Handel um bis zu 20 Prozent.
So What?
Für Unternehmen und Entscheider bedeutet Intels Fokus auf KI-Inferenz konkret: Die CPU wird wieder zum strategischen Hebel für kosteneffiziente KI-Skalierung. Bestehende Infrastruktur-Strategien müssen überprüft werden — wer auf agentische Workloads setzt, findet in der CPU eine flexiblere und oft wirtschaftlichere Basis als in reinen GPU-Clustern.
Fazit
Die Entwicklungen rund um Intel zeigen: Die Ära der reinen GPU-Dominanz weicht einer hybriden Realität, in der die CPU als Orchestrierungsschicht unverzichtbar bleibt. Wer jetzt die Inferenz-Kapazitäten seiner CPU-Flotte optimiert, verschafft sich einen messbaren Vorsprung bei der Implementierung agentischer KI-Systeme.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✅ 10 Claims geprüft, davon 6 mehrfach verifiziert
📚 Quellen