Deepseek hat die Open-Weight-Modelle V4-Pro und V4-Flash veröffentlicht. Diese bieten bis zu 1,6 Billionen Parameter und ein Millionen-Token-Kontextfenster zu Preisen, die deutlich unter denen von Wettbewerbern liegen.
- Deepseek hat die neuen Open-Weight-Modelle V4-Pro und V4-Flash mit bis zu 1,6 Billionen Parametern und einem Millionen-Token-Kontextfenster veröffentlicht.
- Eine neuartige hybride Architektur senkt den Rechenaufwand drastisch und ermöglicht Preise, die weit unter denen von Mitbewerbern wie OpenAI oder Google liegen.
- Die mit über 32 Billionen Tokens trainierten Modelle sind speziell für komplexe, agentische KI-Aufgaben optimiert und senken die Betriebskosten enorm.
Das chinesische KI-Labor Deepseek hat mit V4-Pro und V4-Flash zwei neue Modelle vorgestellt, die durch eine neuartige Architektur die Anforderungen an Rechenleistung bei langen Kontextfenstern erheblich senken. Dies ermöglicht Deepseek eine Preisgestaltung, die unter den Angeboten von OpenAI, Google und Anthropic liegt.
Deepseek V4-Modelle im Überblick
Die Modelle V4-Pro und V4-Flash sind als Open Weights unter der MIT-Lizenz verfügbar. V4-Pro verfügt über 1,6 Billionen Gesamtparameter (49 Milliarden aktiv), während V4-Flash 284 Milliarden Gesamtparameter (13 Milliarden aktiv) aufweist. Beide Modelle nutzen eine Mixture-of-Experts-Architektur und bieten ein Kontextfenster von einer Million Tokens.
Architektur und Effizienz
Die zentrale Innovation liegt in einer hybriden Aufmerksamkeitsarchitektur. Diese kombiniert Token-Kompression mit Deepseeks Sparse Attention. Laut dem technischen Bericht reduziert V4-Pro die FLOPs bei der Verarbeitung eines Millionen-Token-Kontexts auf 27 Prozent und den KV-Cache auf 10 Prozent im Vergleich zu Deepseek V3.2. V4-Flash erreicht sogar Reduktionen auf 10 Prozent der FLOPs und 7 Prozent des KV-Caches.
Preisgestaltung im Detail
Diese Effizienzsteigerungen spiegeln sich in der Preisgestaltung wider. V4-Flash kostet 0,14 US-Dollar pro Million Input-Tokens und 0,28 US-Dollar pro Million Output-Tokens, was es günstiger macht als OpenAI's GPT-5.4 Nano ($0,20 / $1,25). V4-Pro liegt bei 1,74 US-Dollar bzw. 3,48 US-Dollar und unterbietet damit Modelle wie Gemini 3.1 Pro ($2,00 / $12,00) und Claude Sonnet 4.6 ($3,00 / $15,00).
Trainingsdaten und Optimierung
Die Trainingsdaten umfassten 32 bis 33 Billionen Tokens, mit einem Fokus auf mehrsprachigen Daten, wissenschaftlichen Arbeiten und technischen Berichten sowie agentischen Daten im mittleren Trainingsstadium. Die Modelle sind speziell für agentische Aufgaben optimiert und wurden auf Nvidia GPUs sowie Huaweis Ascend NPUs validiert.
So What?
Für Unternehmen und Entwickler bedeuten die V4-Modelle von Deepseek eine direkte Möglichkeit, die Kosten für KI-Anwendungen mit großen Kontextanforderungen drastisch zu senken. Die Kombination aus Open-Weight-Lizenz und hoher Effizienz ermöglicht den Aufbau und Betrieb komplexer, agentischer Systeme auf einer kostengünstigeren Basis, was bisher oft an den API-Preisen der Marktführer scheiterte.
Fazit
Deepseek V4 positioniert sich als hochinteressante Alternative zu den etablierten Modellen von OpenAI, Google und Anthropic. Die aggressive Preisgestaltung, kombiniert mit einem großen Kontextfenster und einer offenen Lizenz, könnte die Entwicklung von KI-Agenten und komplexen Anwendungen demokratisieren und beschleunigen. Unternehmen, die auf lange Kontexte angewiesen sind, erhalten eine performante und kosteneffiziente Option, die neue Anwendungsfälle ermöglicht.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.
📚 Quellen