DeepSeek V4 bringt 1,6 Billionen Parameter
DeepSeek liefert endlich ab. Nach Monaten der Spekulation steht DSV4 — das erste große Modell-Update seit DeepSeek-R1 im Januar.
Die harten Faklen
Zahlenbox
- 1,6T Parameter** — DSV4 Pro, Mixture-of-Experts-Architektur
- 49B aktive Parameter** — Pro-Variante (von 1,6T gesamt)
- 284B Parameter** — Flash-Variante, schlank und schnell
- 13B aktive Parameter** — Flash, für ressourcenarme Setups
- 32T Tokens** — Trainingsdaten, FP4-Präzision
- 1M Token Kontext** — eine Million Tokens Kontextfenster
Zwei Modelle, eine Familie
DSV4 kommt in zwei Varianten: Pro und Flash. Beide gibt es als Base- und Instruct-Version. Pro ist das Flaggschiff — 1,6 Billionen Parameter, davon 49 Milliarden aktiv. Flash ist der kleine Bruder mit 284B Parametern und nur 13B aktiven Gewichten. Wer keine H100-Farm im Keller hat, greift zur Flash-Variante.
Wo steht DSV4?
⚖️ Vergleich
- Leistungsklasse:** Auf Augenhöhe mit Gemini 3.1, GPT-5.4 und Claude Opus 4.6
- Open-Weight-Konkurrenz:** Gleichauf mit Kimi K2.6, dem aktuellen Open-Source-König
- Newcomer:** Xiaomi Mimo 2.5, zwei Tage vorher erschienen, mischt ebenfalls mit
- Kontext:** 1M Tokens — doppelt so viel wie die meisten Konkurrenten
💡 Was das bedeutet
DeepSeek schließt zu den westlichen Frontier-Modellen auf — mit offenen Gewichten. Jedes Unternehmen, jeder Forscher kann DSV4 runterladen und selbst betreiben. Das verändert die Machtverteilung im KI-Markt fundamental.
Der Huawei-Faktor
DSV4 läuft auf Huawei Ascend Chips. Nicht auf Nvidia. Das ist kein technisches Detail, das ist Geopolitik. China baut sich seine eigene KI-Infrastruktur — unabhängig von US-Exportkontrollen. DeepSeek beweist: Es geht auch ohne A100 und H100.
✅ Pro
- Offene Gewichte, jeder kann es nutzen
- 1M Token Kontext
- Läuft auf chinesischer Hardware
- Flash-Variante für kleinere Setups
❌ Con
- Monate Verspätung gegenüber Ankündigung
- Huawei-Chips für westliche Nutzer kaum verfügbar
- Benchmark-Ergebnisse noch nicht unabhängig verifiziert