Qwen schrumpft Flagship-Modell auf 55 Gigabyte
Alibabas KI-Labor Qwen hat ein neues Open-Weight-Modell rausgehauen — und die Behauptung ist dreist: Ein 27-Milliarden-Parameter-Modell soll besser coden als der eigene Vorgänger mit 397 Milliarden Parametern.
Die Zahlen
- 27B Parameter** — dichtes Modell, kein MoE-Trick
- 55,6 GB** — Downloadgröße auf Hugging Face
- 16,8 GB** — als Q4_K_M-Quantisierung via Unsloth
- 807 GB** — so fett war der Vorgänger Qwen3.5-397B-A17B
Was konkret passiert ist
Qwen3.6-27B schlägt laut Hersteller das bisherige Flagship Qwen3.5-397B-A17B in allen großen Coding-Benchmarks. Das alte Modell war ein Mixture-of-Experts mit 397 Milliarden Gesamtparametern, von denen 17 Milliarden aktiv waren. Das neue Modell ist ein schlankes Dense-Modell — keine Routing-Logik, kein MoE-Overhead.
Simon Willison hat die quantisierte Version direkt mit llama-server getestet. Heißt: Das Ding läuft lokal, auf Consumer-Hardware, ohne Cloud-Anbindung.
💡 Was das bedeutet
Open-Weight-Modelle werden nicht nur besser — sie werden radikal kleiner. Wenn ein 27B-Modell tatsächlich Flagship-Level beim Agentic Coding erreicht, können Entwickler leistungsfähige Coding-Agents lokal betreiben. Ohne API-Kosten, ohne Daten in die Cloud zu schicken. Das verschiebt die Machtbalance weg von den großen API-Anbietern.
✅ Pro
- Läuft lokal auf Consumer-GPUs
- Open Weight — volle Kontrolle
- 15× kleiner als der Vorgänger
❌ Con
- Benchmark-Claims kommen vom Hersteller selbst
- Quantisierte Versionen verlieren immer etwas Qualität
- "Flagship-Level" ist ein dehnbarer Begriff