DeepSeek V3.2 schlägt GPT-5 — und ist Open-Weight
DeepSeek hat sein neues Flaggschiff-Modell V3.2 veröffentlicht. Wieder über ein US-Feiertagswochenende, wieder mit einem Knall. Das Ding spielt in Benchmarks auf dem Niveau von GPT-5 und Gemini 3.0 Pro — und jeder kann die Gewichte runterladen.
Sebastian Raschka hat die technischen Details zerlegt. Die Architektur setzt weiter auf Sparse Attention und Mixture-of-Experts. Heißt: Das Modell aktiviert nur einen Bruchteil seiner Parameter pro Anfrage — effizient und trotzdem brutal leistungsfähig.
Was das bedeutet? Open-Weight-Modelle auf dem Level der besten proprietären Systeme. Wer bisher auf OpenAI oder Google angewiesen war, hat jetzt eine echte Alternative. Keine API-Abhängigkeit, keine Preiserhöhungen, volle Kontrolle.
DeepSeek macht das mittlerweile mit System. Jedes halbe Jahr ein neues Modell, jedes Mal näher an der Spitze — oder direkt drauf. Die Kombination aus Reinforcement Learning und offener Veröffentlichung setzt die US-Labore massiv unter Druck.