DeepSeek V4 läuft auf Huawei-Chips
Chinas KI-Liebling liefert nach. DeepSeek hat V4 als Preview veröffentlicht — ein Open-Weight-Modell, das mit den besten US-Modellen mithalten soll und dabei die Inferenzkosten massiv drückt.
Was drin steckt
DeepSeek V4 ist der Nachfolger von R1 und macht zwei Versprechen: Erstens Performance auf dem Niveau proprietärer amerikanischer LLMs. Zweitens Inferenzkosten, die nur einen Bruchteil des Vorgängers betragen.
💡 Was das bedeutet
Der eigentliche Knaller ist die Hardware-Seite. DeepSeek unterstützt jetzt offiziell Huaweis Ascend-NPUs — also genau die Chips, die China baut, weil Nvidia nicht mehr liefern darf. Wenn ein Top-Modell auf heimischer Hardware läuft, wird der US-Exportbann zum Papiertiger.
Zahlenbox
- Kosten:** Bruchteil der R1-Inferenzkosten
- Gewichte:** Open Weight, frei verfügbar
- Hardware:** Nvidia-GPUs + Huawei Ascend NPUs
- Status:** Preview
Warum das geopolitisch zündet
Die USA haben Chip-Exporte nach China eingeschränkt, um den KI-Vorsprung zu halten. DeepSeek zeigt jetzt zum zweiten Mal: Das funktioniert nicht wie geplant. Erst R1, das mit weniger Rechenleistung konkurrenzfähig war. Jetzt V4, das auf chinesischer Hardware performt.
✅ Pro
- Drastisch günstigere Inferenz
- Open Weights — jeder kann es nutzen
- Läuft auf Huawei-Chips, nicht nur Nvidia
❌ Con
- Noch im Preview, keine unabhängigen Benchmarks
- Performance-Claims bisher nur von DeepSeek selbst
- Huawei-Support muss sich in der Praxis beweisen