DeepSeek hat die Modelle DeepSeek V4 Pro und DeepSeek V4 Flash veröffentlicht. Die Modelle, die seit DeepSeek V3 (Dezember 2024) und DeepSeek-R1 (Januar 2025) die ersten größeren Veröffentlichungen sind, heben die DeepSeek-Familie auf das Niveau aktueller Spitzenmodelle wie Kimi K2.6 und Xiaomi MiMo 2.5.
- DeepSeek hat mit V4 Pro und Flash zwei neue KI-Modelle veröffentlicht, die bis zu 1,6 Billionen Parameter und eine Million Token Kontextfenster bieten.
- Bahnbrechende Kompressionstechniken reduzieren den Rechenaufwand bei vollem Kontext um 73 Prozent und senken den Speicherbedarf drastisch.
- Die Modelle sind nativ für Huawei-Chips optimiert, was einen entscheidenden Schritt in die Unabhängigkeit von exportbeschränkter US-Hardware bedeutet.
Effizienzsprung durch CSA und mHC-Architektur
DeepSeek V4 Pro ist ein Mixture-of-Experts (MoE) Modell mit 1,6 Billionen Parametern, das auf über 32 Billionen Tokens trainiert wurde. Es unterstützt einen Kontext von 1 Million Tokens, ermöglicht durch Compressed Sparse Attention (CSA) und Heavily Compressed Attention (HCA). Diese Techniken steigern die Effizienz im Vergleich zu DeepSeek V3.2 erheblich: Bei vollem Kontext werden nur 27 % der FLOPs und 10 % des KV-Cache-Speichers benötigt.
Die Architektur basiert auf dem Manifold Constrained Hyper-Connections (mHC) Verfahren, das die Stabilität bei extrem tiefen Netzwerken verbessert. Zudem setzt DeepSeek die Nutzung des Muon-Optimierers fort, der ursprünglich von Moonshot AI entwickelt wurde und eine schnellere Konvergenz bei großen MoE-Modellen ermöglicht. Der technische Bericht umfasst 58 Seiten und dokumentiert die Überlegenheit in agentischen Coding-Benchmarks wie LiveCodeBench (93,5 Pass@1).
Strategische Autarkie: Fokus auf Huawei Ascend
Ein zentraler Aspekt der V4-Serie ist die optimierte Kompatibilität mit Huawei CANN. Dies erlaubt den Betrieb auf Ascend 910B/950 Chips ohne den Umweg über CUDA-Emulation. Angesichts der US-Exportbeschränkungen für NVIDIA H100/H200 Chips ist dies ein kritischer Faktor für die Skalierung chinesischer KI-Infrastruktur. Unabhängige Benchmarks führen DeepSeek V4 Pro aktuell auf dem zweiten Platz der Open-Weight-Modelle, knapp hinter Kimi K2.6, aber vor GLM-5.
❓ Häufig gestellte Fragen
✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.
📚 Quellen