DeepSeek V4 macht OpenAI beim Preis nass
Das chinesische KI-Labor DeepSeek legt zwei neue Modelle auf den Tisch: V4-Pro und V4-Flash. 1,6 Billionen Parameter, eine Million Token Kontextfenster — und Preise, bei denen die Konkurrenz nervös wird.
Die Zahlen
- 1,6 Billionen** — Parameter im V4-Pro (größtes Open-Weights-Modell der Welt)
- 1 Million** — Token Kontextfenster
- 2 Modelle** — V4-Pro (Power) und V4-Flash (Speed)
Was DeepSeek anders macht
DeepSeek veröffentlicht nicht nur Modelle, sondern auch das technische Paper dazu. Details zu Trainingsdaten, Destillation, Hardware — alles offen. Das ist kein Marketing-Move. Das ist ein Statement gegen die Blackbox-Kultur von OpenAI und Google.
Die Preise liegen dabei deutlich unter dem, was GPT-4o, Gemini oder Claude kosten.
Was das bedeutet
Open-Weights-Modelle mit dieser Größe und diesem Preis setzen die geschlossenen Anbieter massiv unter Druck. Wer für die gleiche Leistung mehr zahlen soll, braucht verdammt gute Argumente. DeepSeek zwingt OpenAI, Google und Anthropic in einen Preiskrieg, den sie nicht gewinnen wollen.
✅ Pro
- Größtes Open-Weights-Modell am Markt
- Preise weit unter der Konkurrenz
- Technisches Paper öffentlich verfügbar
- 1M Token Kontext schlägt fast alle Wettbewerber
❌ Con
- Chinesisches Labor — Datenschutzfragen bleiben
- Open Weights ≠ Open Source (Trainingsdetails ja, Lizenz unklar)
- Ob die Benchmarks in der Praxis halten, muss sich zeigen