KI-Anbieter-Hub
Die GPU-Schmiede hinter dem KI-Boom
NVIDIA ist mit einem Marktanteil von über 80% bei KI-Beschleunigern der wichtigste Hardware-Lieferant der gesamten Branche. Neben den H100/H200/B200-GPUs wird zunehmend in eigene Modelle (Nemotron) und Software-Stacks (CUDA, NeMo, NIM) investiert. Marktkapitalisierung über 3 Bio. USD.
- Hauptsitz
- Santa Clara, USA
- Gegründet
- 1993
- CEO
- Jensen Huang
- Mitarbeiter
- ~32.000
- Bewertung
- ~3.300 Mrd. USD (2025)
- Investoren
- Börsennotiert (NASDAQ: NVDA)
- Website
- nvidia.com/ai ↗
- Wikipedia
- Eintrag ansehen ↗
- X / Twitter
- @nvidia
NVIDIA im Porträt
Wer steckt hinter NVIDIA, was macht das Unternehmen einzigartig — und welche Rolle spielt es im globalen KI-Wettbewerb?
NVIDIA ist die unangefochtene Hardware-Schmiede des KI-Booms: Praktisch jedes große Sprachmodell der Welt wird auf NVIDIA-GPUs trainiert. Die Hopper-Generation (H100/H200) ist seit 2023 De-facto-Standard, die 2024 vorgestellte Blackwell-Architektur (B100/B200, GB200 NVL72) treibt das Tempo bei Reasoning-Modellen wie DeepSeek V4 weiter an. Über die CUDA-Plattform, das NeMo-Trainingsframework und die NIM-Microservices kontrolliert NVIDIA nicht nur die Chips, sondern auch den darüber liegenden Software-Stack — ein „Vendor Lock-in"-Vorsprung, der das Unternehmen zur teuersten börsennotierten Firma der Welt gemacht hat (rund 3,3 Billionen US-Dollar Marktkapitalisierung).
Schlüsselprodukte
- H100 / H200
- Blackwell B100/B200
- GB200 NVL72
- CUDA
- NeMo
- NIM Microservices
- Omniverse
NVIDIA-Modelle im Vergleich (11)
Sortiert nach Quality-Index. Die Top-5 sind direkt sichtbar — alle weiteren 6 Modelle per Klick. Daten via Artificial Analysis, täglich synchronisiert.
| # | Modell | Quality | Speed | Latency | Input $/M | Output $/M | Context |
|---|---|---|---|---|---|---|---|
| 1 | NVIDIA: Nemotron 3 Supernvidia/nemotron-3-super-120b-a12b |
36 | 164,8 t/s | 1,00 s | $0.30 | $0.75 | — |
| 2 | NVIDIA: Nemotron 3 Nano 30B A3Bnvidia/nemotron-3-nano-30b-a3b |
24,3 | 188,3 t/s | 913 ms | $0.055 | $0.22 | — |
| 3 | NVIDIA: Llama 3.1 Nemotron Ultra 253B v1nvidia/llama-3.1-nemotron-ultra-253b-v1 |
15 | 42,3 t/s | 767 ms | $0.60 | $1.80 | — |
| 4 | NVIDIA: Nemotron Nano 12B 2 VLnvidia/nemotron-nano-12b-v2-vl |
14,9 | 125,0 t/s | 244 ms | $0.20 | $0.60 | — |
| 5 | NVIDIA: Llama 3.1 Nemotron 70B Instructnvidia/llama-3.1-nemotron-70b-instruct |
13,4 | 36,6 t/s | 331 ms | $1.20 | $1.20 | — |
Alle 11 Modelle anzeigen ↓Weniger anzeigen ↑
| # | Modell | Quality | Speed | Latency | Input $/M | Output $/M | Context |
|---|---|---|---|---|---|---|---|
| 6 | NVIDIA: Nemotron Nano 9B V2nvidia/nemotron-nano-9b-v2 |
13,2 | 152,7 t/s | 639 ms | $0.05 | $0.195 | — |
| 7 | NVIDIA: Nemotron 3 Super (free)nvidia/nemotron-3-super-120b-a12b:free |
— | — t/s | — | — | — | — |
| 8 | NVIDIA: Nemotron 3 Nano 30B A3B (free)nvidia/nemotron-3-nano-30b-a3b:free |
— | — t/s | — | — | — | — |
| 9 | NVIDIA: Nemotron Nano 12B 2 VL (free)nvidia/nemotron-nano-12b-v2-vl:free |
— | — t/s | — | — | — | — |
| 10 | NVIDIA: Llama 3.3 Nemotron Super 49B V1.5nvidia/llama-3.3-nemotron-super-49b-v1.5 |
— | — t/s | — | — | — | — |
| 11 | NVIDIA: Nemotron Nano 9B V2 (free)nvidia/nemotron-nano-9b-v2:free |
— | — t/s | — | — | — | — |
Release-Timeline
Chronologie der jüngsten Modell-Releases von NVIDIA.
-
NVIDIA: Nemotron 3 Super (free)
-
NVIDIA: Nemotron 3 Super
-
NVIDIA: Nemotron 3 Nano 30B A3B
-
NVIDIA: Nemotron 3 Nano 30B A3B (free)
-
NVIDIA: Nemotron Nano 12B 2 VL (free)
-
NVIDIA: Nemotron Nano 12B 2 VL
-
NVIDIA: Llama 3.3 Nemotron Super 49B V1.5
-
NVIDIA: Nemotron Nano 9B V2 (free)
-
NVIDIA: Nemotron Nano 9B V2
-
NVIDIA: Llama 3.1 Nemotron Ultra 253B v1
-
NVIDIA: Llama 3.1 Nemotron 70B Instruct
Glossar zu NVIDIA
Begriffe und Produkte aus dem NVIDIA-Universum, von der Redaktion erklärt.
Direkte Modell-Vergleiche
Head-to-Head: NVIDIA-Modelle vs. die Top-Konkurrenz.
NVIDIA im Wettbewerb
Wie sich NVIDIA gegen andere große KI-Anbieter positioniert.
Weitere KI-Anbieter
Wie diese Seite gepflegt wird
Der NVIDIA-Hub bündelt alles, was unsere Redaktion zum Anbieter weiß: Stammdaten und Profil pflegen wir manuell und prüfen sie regelmäßig auf Aktualität. Die Modell-Performance in der Tabelle wird täglich um 04:00 UTC aus dem unabhängigen Benchmark Artificial Analysis synchronisiert — neue Releases erscheinen automatisch innerhalb von 24 Stunden, sobald dort Messdaten vorliegen. Glossar-Begriffe sind redaktionell gepflegt und nach EU-AI-Act dokumentiert. Die Vergleichsseiten entstehen automatisch aus den Top-Modell-Paarungen. Wenn du einen Fehler findest oder einen neuen Vergleich vermisst, schreib uns — wir reagieren in der Regel innerhalb eines Werktags.
Vollständiges Leaderboard · Modell-Vergleiche · KI-Glossar · Alle Anbieter
Letzte News & Analysen zu NVIDIA
20 Artikel aus unserer Redaktion — von Produkt-Launches über strategische Einordnungen bis hin zu kritischen Analysen. Chronologisch absteigend, der jüngste Beitrag zuerst.

NV-Raw2Insights-US: NVIDIA und Siemens Healthineers bauen Ultraschall mit KI neu
NVIDIA und Siemens Healthineers veröffentlichen NV-Raw2Insights-US: ein KI-Modell, das direkt auf Rohsensordaten arbeitet und Ultraschall patientenindividuell f…

Nvidia in der Zwickmühle durch Musks Cursor-Interesse
Ein potenzieller Kauf von AI-Coding-Unternehmen Cursor durch Elon Musks SpaceX könnte Nvidia in eine unangenehme Lage bringen.

DeepSeek V4: KI-Modelle für Agenten-Anwendungen auf NVIDIA Blackwell
DeepSeek hat V4-Modelle für effiziente Inferenz mit 1 Million Token Kontext vorgestellt, optimiert für NVIDIA Blackwell.

NVIDIA Jetson: Speicheroptimierung für KI am Edge
NVIDIA zeigt, wie Entwickler KI-Modelle am Edge effizienter betreiben können. Durch gezielte Speicheroptimierung auf Jetson-Plattformen lassen sich größere Mode…

NVIDIA Megatron: Muon-Optimierer erreicht nahezu identische Trainingsdurchsätze wie AdamW
NVIDIA integriert Muon und weitere Higher-Order-Optimierer in Megatron Core; Messungen auf GB300 zeigen nahezu identische TFLOPs/GPU im Vergleich zu AdamW.

Jensen Huang: KI-Agenten werden dich nicht ersetzen — aber micromanagen
Nvidia-CEO Jensen Huang erklärt auf einem Stanford-Panel: KI-Agenten zerstören keine Jobs, sie micromanagen Mitarbeiter und steigern die Produktivität. Seine Th…

Vast Data: Nvidia-Partner erreicht 30-Milliarden-Dollar-Bewertung
Das von Nvidia gestützte Infrastruktur-Unternehmen Vast Data sammelt eine Milliarde US-Dollar ein und verdreifacht die Bewertung auf 30 Milliarden.

NVIDIA Dynamo: KV‑aware Inferenz entsperrt skalierende Coding‑Agenten
Agentische Coding‑Workloads explodieren – der Inferenz‑Stack wird zum Engpass. NVIDIA Dynamo optimiert Frontend, Routing und KV‑Cache für geringere Latenz und K…

Kepler Communications: 40 NVIDIA-Module bilden ersten orbitalen KI-Compute-Cluster
Kepler Communications hat am 16. März 2026 den weltweit ersten kommerziell operationellen orbitalen Compute-Cluster in Betrieb genommen – 40 NVIDIA Jetson Orin …

SiFive: Nvidia investiert in RISC-V-Startup mit 3,65-Milliarden-Bewertung
SiFive schließt eine 400-Mio.-Dollar-Runde mit Nvidia als Investor ab und erreicht eine Bewertung von 3,65 Mrd. Dollar. RISC-V greift das ARM/x86-Duopol an.

Nvidia-Report 2026: 70% nutzen KI, 85% Umsatzplus – ROI kommt aus vier Bereichen
Nvidia meldet 70% KI-Adoption im Healthcare. 85% der Executives sehen Umsatzplus, 80% Kostensenkung. Der ROI konzentriert sich auf Bildgebung, Drug Discovery, A…

Uber & AWS: Ride-Hailing-Riese setzt auf Amazons Custom-Chips statt Nvidia
Uber erweitert seine AWS-Partnerschaft und setzt künftig auf Amazons Graviton4 und Trainium3 – auf Kosten bisheriger Oracle- und Google-Workloads. Was das für E…
Apple Silicon: Tiny Corp bringt Nvidia- und AMD-eGPUs für KI-Workloads auf den Mac
Tiny Corp hat Treiber entwickelt, die Nvidia RTX- und AMD RDNA3+-GPUs per USB4/Thunderbolt auf Apple Silicon Macs nutzbar machen – ausschließlich für KI-Workloa…

Exa: Nvidia-gefördertes KI-Such-Startup sucht "rebellische" Entwickler für Singapur-Expansion
Exa, das mit 700 Mio. Dollar bewertete KI-Such-Startup, eröffnet ein Büro in Singapur und sucht gezielt nach Entwicklern, die klassische Suchlogik hinter sich l…

Nvidia KVTC: 20x weniger GPU-Speicher, bis zu 8x schnellerer First Token
Nvidias KVTC komprimiert den KV-Cache von LLMs mit Transform-Coding um bis zu 20x und senkt die TTFT laut Studie um bis zu 8x. Das verschiebt Kosten und Skalier…

Nvidia DLSS 5: Generative Grafik kollidiert mit der Art Direction
DLSS 5 verschiebt Grafik von Upscaling zu generativem Neural Rendering. Massive Kritik am Look zwingt Publisher zu klaren Guardrails und EU‑AI‑Act-konformer Gov…

DLSS 5: Nvidia erklärt, warum generative KI kein Stilbruch ist
Jensen Huang verteidigt DLSS 5 als Künstlerwerkzeug, nicht als ästhetischen Filter. Was die "3D-konditionierte" KI technisch bedeutet und was Entscheider wissen…

Jensen Huang erklärt AGI für erreicht: Strategie oder Substanz?
Nvidia-CEO Jensen Huang bezeichnete AGI auf dem Lex Fridman Podcast als bereits erreicht – und ruderte sofort zurück. Eine Analyse zeigt: Dahinter steckt eine g…

Nvidia: 1‑Billion‑Dollar‑Roadmap setzt Branchenstandard bis 2027
Nvidia taxiert Bestellungen für Blackwell/Rubin bis 2027 auf 1 Billion US‑Dollar. Was das für Wettbewerb, Beschaffung und EU‑Compliance bedeutet – komprimiert a…

AWS Trainium: Wie Amazon Nvidias KI-Chip-Monopol unter Druck setzt
AWS Trainium gewinnt Anthropic und OpenAI als Kunden – doch unabhängige Tests zeigen Grenzen. Was Amazons Chip-Strategie für den KI-Infrastrukturmarkt wirklich …