🔥 HOT NEWS
Gemma 4 schlägt Modelle mit 30× mehr Parametern
Google DeepMind droppt Gemma 4 — und das Ding liefert. Das 31B-Modell hängt Konkurrenten ab, die teilweise über eine Billion Parameter mitschleppen.
Google DeepMind droppt Gemma 4 — und das Ding liefert. Das 31B-Modell hängt Konkurrenten ab, die teilweise über eine Billion Parameter mitschleppen.
Die nackte Wahrheit in Zahlen
- 31B Parameter** — Gemma 4 Dense Variante
- 744B Parameter** — Kimi K2.5, gleichauf mit Gemma 4
- 1T Parameter** — Z.ai GLM-5, ebenfalls gleichauf
- ~24×** weniger Parameter als der nächste Rivale auf gleicher Stufe
Warum das gerade jetzt zählt
Amerikas Open-Source-Szene wackelt. Das Allen Institute verliert reihenweise Leute. GPT-OSS von OpenAI hängt irgendwo im Limbo. Wer baut noch offene Modelle, die was taugen?
Google DeepMind sagt: Wir. Und zwar nicht mit einem aufgeblähten Monster-Modell, sondern mit einem schlanken 31B-Ding, das die Pareto-Front neu definiert.
⚖️ Gemma 4 (31B) vs. Kimi K2.5 (744B-A40B)
- Benchmark-Leistung:** Gleichauf — Weltspitze bei Open Models
- Gesamtparameter:** 31B vs. 744B — Faktor 24
- Architektur:** Dense vs. Mixture-of-Experts
- Multimodal:** Ja, Gemma 4 ist multimodal
- Praktischer Vorteil:** Gemma 4 läuft auf deutlich weniger Hardware
💡 Was das bedeutet
Kleiner, schneller, billiger — und trotzdem genauso gut. Wer ein Open Model lokal oder auf eigener Infrastruktur betreiben will, bekommt mit Gemma 4 plötzlich Weltklasse-Leistung ohne Rechenzentrums-Budget. Das verschiebt die Machtverhältnisse weg von den MoE-Giganten.
✅ Pro
- Weltspitze bei Open Models trotz winziger Größe
- Multimodal out of the box
- Massiv effizienter als die Konkurrenz
- Deutlicher Sprung gegenüber Gemma 3
❌ Con
- Google kann Gemma-Lizenz jederzeit einschränken
- 31B ist immer noch zu groß für Consumer-GPUs mit vollem Kontext
🤖 NERDMAN-URTEIL
Während OpenAI noch überlegt, ob Open Source sich lohnt, liefert Google einfach das beste kleine Open Model der Welt — Respekt, weiter so.
Quelle: Latent Space
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.