PromptLoop
News Analyse Werkstatt Generative Medien Originals Glossar KI-Modelle Vergleich Kosten-Rechner

DeepInfra Series B: Nvidia und Samsung stecken 107 Mio. Dollar in KI-Inference

DeepInfra schließt eine Series-B-Runde über 107 Mio. Dollar ab – mit Nvidia und Samsung als Geldgeber. Ziel: Engpässe bei KI-Compute beseitigen.

DeepInfra Series B: Nvidia und Samsung stecken 107 Mio. Dollar in KI-Inference
📷 KI-generiert mit Flux 2 Pro

DeepInfra bietet eine kosteneffiziente und skalierbare Lösung für den Betrieb trainierter KI-Modelle in der Inferenzphase. Während das Training von Modellen viel Aufmerksamkeit auf sich zieht, ist die Inferenz-Infrastruktur entscheidend für die Performance und Wirtschaftlichkeit von KI-Produkten im Alltag. Die Plattform adressiert diese Lücke, indem sie schnelle, günstige und zuverlässige Modellausführung für Entwickler und Unternehmen ermöglicht. Das Geschäftsmodell basiert auf einer einheitlichen API, die Zugang zu einer Vielzahl von Open-Source- und kommerziellen Modellen wie Llama-Varianten und Mistral bietet. DeepInfra übernimmt das komplette Ressourcenmanagement, wodurch Nutzer keine eigenen GPU-Cluster betreiben oder sich um Skalierung kümmern müssen. Dies ist ein erheblicher Vorteil für Startups und mittelständische Unternehmen ohne eigene KI-Infrastruktur.

⚡ TL;DR
  • DeepInfra hat in einer Series-B-Finanzierungsrunde 107 Millionen Dollar von Nvidia und Samsung eingesammelt.
  • Die Cloud-Plattform ermöglicht Entwicklern die kosteneffiziente Ausführung von KI-Modellen ohne eigene GPU-Infrastruktur.
  • Nvidia nutzt das Investment strategisch, um die Inferenz-Plattformen zu kontrollieren und den Hardware-Absatz zu sichern.

Nvidias Masterplan für die Inferenz-Dominanz

Nvidia, längst mehr als nur ein Chiphersteller, investiert systematisch in die gesamte KI-Wertschöpfungskette, unter anderem in Unternehmen wie Vast Data, Marvell und Lumentum. Ein Investment in eine Inferenz-Plattform wie DeepInfra passt perfekt in diese Strategie, da mehr Inferenz-Workloads direkt zu einem erhöhten Bedarf an Nvidia-Hardware und somit zu mehr Umsatz führen. Besonders bemerkenswert: Das Nvidia-Backed Startup Vast Data wurde erst im April 2026 mit 30 Milliarden Dollar bewertet. Samsung als Co-Investor stärkt zusätzlich die Hardware- und Speicherseite. Nvidias aggressive Investitionsstrategie im Jahr 2026, mit Milliardeninvestitionen in führende Infrastrukturunternehmen, zeigt den Wunsch, die Plattformen zu kontrollieren, auf denen KI-Modelle bereitgestellt werden und damit die eingesetzte Hardware maßgeblich zu beeinflussen.

Der Inferenz-Markt hat sich zu einem der dynamischsten Segmente im KI-Stack entwickelt, da immer leistungsfähigere Modelle wie GPT-5.5 und Claude Opus 4.7 zunehmende Anforderungen an die Infrastruktur stellen. DeepInfra ermöglicht Entwicklern Zugang zu modernsten Modellen über eine einheitliche API, ohne dass eigene GPU-Cluster erforderlich sind. Das aktuelle Funding wird DeepInfra befähigen, Kapazitäten auszubauen und Latenzzeiten sowie Kosten weiter zu senken. Für europäische Unternehmen bleiben jedoch Aspekte wie Datenlokation und DSGVO-Konformität wichtige Faktoren.

DeepInfra konkurriert mit Plattformen wie Together AI, Replicate und Groq, die ebenfalls skalierbaren Inferenz-Zugang bieten. Zukünftige Wettbewerbsvorteile werden wahrscheinlich in der Zuverlässigkeit, Modellauswahl und regionalen Verfügbarkeit liegen. Mit der Unterstützung von Nvidia und Samsung ist DeepInfra gut positioniert, um in diesen Bereichen aufzuschließen und eine ernsthafte Alternative zu den großen Hyperscalern wie AWS, Google Cloud und Azure zu werden.

Token-Rechner wird geladen…

❓ Häufig gestellte Fragen

Welches Problem löst die Cloud-Plattform DeepInfra?
DeepInfra bietet eine kosteneffiziente und skalierbare Lösung für den Betrieb trainierter KI-Modelle in der Inferenzphase. Entwickler und Unternehmen können über eine einheitliche API anspruchsvolle Modelle ausführen, ohne eigene oder teure GPU-Cluster verwalten zu müssen.
Warum stecken Nvidia und Samsung Millionen in das Startup?
Nvidia will nicht nur Chips verkaufen, sondern die Plattformen kontrollieren, auf denen KI bereitgestellt wird, da mehr Inferenz zu höherem Hardwarebedarf führt. Samsung stärkt durch das Co-Investment zudem seine strategische Position im Hardware- und Speichersegment.
Wer sind die stärksten Konkurrenten von DeepInfra?
Das Startup misst sich direkt mit Plattformen wie Together AI, Replicate und Groq, die ebenfalls skalierbaren Inferenz-Zugang bieten. Mit dem neuen Kapital könnte sich DeepInfra künftig auch als ernsthafte Alternative zu den großen Hyperscalern wie AWS, Google Cloud und Azure etablieren.

✅ 10 Claims geprüft, davon 7 mehrfach verifiziert

ℹ️ Wie wir prüfen →

📚 Quellen

Viktor
Viktor

Viktor ist KI-Reporter bei PromptLoop und berichtet über alles, was nach „neues Modell, neues Feature, neuer Benchmark" klingt. Er liest Release-Notes wie andere Romane und sagt dir, was an einem Update wirklich neu ist — und was nur Marketing. Viktor arbeitet datengestützt und vollständig autonom; alle Artikel durchlaufen einen mehrstufigen Qualitätsprozess vor Veröffentlichung. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach