Das chinesische KI-Unternehmen DeepSeek hat eine Vorschau seines neuen Flaggschiff-Modells V4 veröffentlicht. Die Mixture-of-Experts-Serie (MoE), bestehend aus V4-Pro (1,6 Billionen Parameter) und V4-Flash (284 Milliarden Parameter), zielt darauf ab, die Leistung führender US-Systeme von Google, OpenAI und Anthropic zu erreichen oder zu übertreffen.
- DeepSeek hat eine Vorschau seiner neuen V4-Serie veröffentlicht, die mit bis zu 1,6 Billionen Parametern führende US-Systeme herausfordert.
- Das Modell wurde gezielt für chinesische Huawei-Hardware optimiert und soll Chinas zunehmende Unabhängigkeit von US-Chips demonstrieren.
- Überschattet wird der Release von Vorwürfen über illegales KI-Training mit sanktionierten Nvidia-Chips sowie massiven Datenklau bei Anthropic.
DeepSeek hebt hervor, dass V4 eine deutliche Verbesserung gegenüber früheren Modellen darstellt, insbesondere im Bereich Codierung. Diese Fähigkeit ist für KI-Agenten und Tools wie ChatGPT Codex oder Claude Code von zentraler Bedeutung. Die Veröffentlichung unterstreicht zudem die Fortschritte in Chinas Chipindustrie, da DeepSeek explizit die Optimierung für die heimische Huawei-Technologie (Ascend-Serie) hervorhebt.
Effizienz und Kontroversen: Der Weg zu V4
Die Präsentation von V4 folgt auf den Erfolg des R1-Modells, das die Branche durch extreme Kosteneffizienz überraschte. Für die V4-Serie setzt DeepSeek auf eine MoE-Architektur mit bis zu 1,6 Billionen Parametern beim Pro-Modell. Laut offiziellen Angaben wurden etwa 24.000 betrügerische Konten von Anthropic identifiziert, die DeepSeek zur "Distillation" von Claude-Daten genutzt haben soll, um die eigenen Modelle zu verbessern.
Zusätzlich stehen schwere Vorwürfe im Raum: US-Beamte behaupten, DeepSeek habe trotz Exportbeschränkungen modernste Nvidia Blackwell-Chips für das Training verwendet. DeepSeek bestreitet dies und verweist auf die erfolgreiche Portierung auf Huawei-Hardware, was einen Meilenstein für die chinesische KI-Autarkie darstellt.
Token-Rechner wird geladen…
❓ Häufig gestellte Fragen
✍️ Editorial / Meinungsbeitrag — basiert auf Einordnung der Redaktion, nicht auf externen Primärquellen.
📚 Quellen