DeepSeek V4 kostet fast nichts — und läuft auf Huawei
DeepSeek legt nach. Das neue V4-Modell soll mit den besten US-Modellen mithalten — bei einem Bruchteil der Inference-Kosten. Und es läuft auf Huawei-Chips.
Was steckt drin
Das chinesische KI-Labor veröffentlicht DeepSeek V4 als Open-Weights-Modell in der Preview. Die Versprechen sind fett: Leistung auf dem Niveau der besten proprietären amerikanischen LLMs. Dazu Support für Huaweis Ascend-Beschleuniger.
Zahlenbox
- Kosten:** Inference drastisch günstiger als beim Vorgänger R1
- Gewichte:** Open Weights — jeder kann es nutzen und anpassen
- Hardware:** Läuft auf Huaweis Ascend-NPUs
- Status:** Preview, noch kein finaler Release
Warum Huawei wichtig ist
Die Ascend-Unterstützung ist der eigentliche Knaller. China baut seine eigene KI-Infrastruktur — unabhängig von Nvidia. Wenn ein Top-Modell auf Huawei-Hardware performt, wird der US-Chipbann ein Stück wirkungsloser. DeepSeek liefert den Beweis, dass es auch ohne A100 und H100 geht.
✅ Pro
- Open Weights statt proprietärer Blackbox
- Massiv günstigere Inference als R1
- Hardware-Unabhängigkeit von Nvidia
❌ Con
- Noch in Preview, keine finalen Benchmarks
- Ascend-Ökosystem deutlich kleiner als CUDA
- Chinesische Modelle stehen unter politischem Dauerverdacht
Was das bedeutet
DeepSeek drückt die Kosten für KI-Inference weiter nach unten — und macht sich gleichzeitig unabhängig von amerikanischer Hardware. Für Unternehmen weltweit heißt das: Es gibt bald eine echte Alternative zum Nvidia-OpenAI-Komplex. Wer auf Open Weights setzt, bekommt mit V4 ein ernstzunehmendes Werkzeug.