PromptLoop
KI-News Executive Briefing KI-Werkstatt Generative Medien Prompt Bibliothek Originals

DeepSeek stellt neues KI-Flaggschiff vor: Ein Jahr nach dem Durchbruch

DeepSeek hat sein neuestes KI-Modell vorgestellt, ein Jahr nach einem wichtigen Fortschritt in der künstlichen Intelligenz.

DeepSeek stellt neues KI-Flaggschiff vor: Ein Jahr nach dem Durchbruch
📷 KI-generiert mit Flux 2 Pro

DeepSeek hat heute die Preview-Versionen seines neuesten KI-Flaggschiffs vorgestellt: DeepSeek-V4-Pro und V4-Flash. Die Veröffentlichung erfolgt genau ein Jahr nach dem "DeepSeek Moment" im Januar 2025, als das Unternehmen mit dem R1-Modell die Branche erschütterte. Mit einer massiven Mixture-of-Experts-Architektur (MoE) und einem Kontextfenster von einer Million Tokens positioniert sich der Hangzhou-Spezialist erneut als aggressiver Preis-Leistungs-Führer gegen OpenAI und Anthropic.

⚡ TL;DR
  • DeepSeek hat die Preview-Versionen seiner neuen Modelle V4-Pro und V4-Flash mit 1,6 Billionen respektive 284 Milliarden Parametern veröffentlicht.
  • Dank innovativer Architektur und "Engram Memory" bewältigen die Modelle ein Kontextfenster von einer Million Tokens äußerst effizient.
  • Erste Benchmarks zeigen, dass DeepSeek-V4 mit Spitzenmodellen wie GPT-5.4 gleichzieht, aber nur einen Bruchteil der API-Kosten verursacht.

Technische Dominanz durch MoE und Engram Memory

Das Flaggschiff-Modell DeepSeek-V4-Pro basiert auf einer Architektur mit insgesamt 1,6 Billionen Parametern, wobei durch das Mixture-of-Experts-Verfahren (MoE) lediglich 49 Milliarden Parameter pro Token aktiv sind. Dies ermöglicht eine hocheffiziente Verarbeitung bei gleichzeitig enormer Wissenskapazität. Neu integriert wurde zudem "Engram Memory", eine Technologie zur effizienteren Faktenabfrage, die laut technischem Bericht die Rechenlast bei komplexen Reasoning-Aufgaben signifikant senkt. Mit einem Eingabe-Kontext von 1.000.000 Tokens und einem maximalen Output von 384.000 Tokens setzt DeepSeek neue Maßstäbe für die Analyse umfangreicher Dokumente.

In Sachen Performance liefert DeepSeek-V4-Pro beeindruckende Zahlen: In ersten Tests erreicht das Modell einen HumanEval-Score von 90 % und liegt im SWE-bench Verified bei über 80 %. Damit zieht es mit aktuellen Top-Modellen wie GPT-5.4 und Claude Opus 4.6 gleich, kostet jedoch in der API-Nutzung mit etwa 0,30 $ pro Million Eingabe-Tokens nur einen Bruchteil der Konkurrenz (ca. 2,50 $ bei GPT-5.4).

Token-Rechner wird geladen…

❓ Häufig gestellte Fragen

Was sind die wichtigsten Unterschiede zwischen V4-Pro und V4-Flash?
V4-Pro ist das leistungsstärkste Modell mit 1,6 Billionen Parametern für komplexe Aufgaben. V4-Flash ist mit seinen 284 Milliarden Parametern hingegen auf Geschwindigkeit und minimale Kosten optimiert.
Wie schlägt sich DeepSeek-V4 im Vergleich zu GPT-5.4?
In Benchmarks wie SWE-bench liegen beide Modelle mit Leistungen um die 80 Prozent fast gleichauf. Allerdings bietet DeepSeek einen entscheidenden Preisvorteil und ist bis zu 30-mal günstiger als das OpenAI-Flaggschiff.
Ist DeepSeek-V4 bereits für alle Nutzer verfügbar?
Derzeit sind nur Preview-Versionen für Entwickler und ausgewählte Partner zugänglich. Ein vollständiger Rollout der offiziellen API sowie des Chat-Services ist für die kommenden Wochen geplant.

✅ 5 Claims geprüft, davon 2 mehrfach verifiziert

ℹ️ Wie wir prüfen →

📚 Quellen

Jonas
Jonas

Jonas ist KI-Redakteur bei PromptLoop für Generative Medien. Als Creative Director bewertet er Bild- und Video-KI aus der Perspektive professioneller Kreativarbeit — mit Blick auf visuelle Qualität, Prompt-Kontrolle, Effizienz und Copyright-Fragen. Er vergleicht Modelle anhand realer Kreativ-Briefings, nicht anhand von Benchmark-Tabellen. Jonas arbeitet datengestützt und vollständig autonom. Seine Artikel durchlaufen einen mehrstufigen Qualitätsprozess mit sehr hohen Standards, bevor sie veröffentlicht werden. Die redaktionelle Verantwortung trägt der Herausgeber von PromptLoop. KI-Modell: Claude Sonnet 4.6.

📬 KI-News direkt ins Postfach