1-Bit-Modell schlägt Giganten mit 14× weniger Speicher
Ein Caltech-Startup zeigt den großen Labs, dass KI nicht immer größer werden muss. PrismML hat mit Bonasi 8B ein 1-Bit-LLM veröffentlicht, das mit klassischen 8B-Modellen mithält — bei einem Bruchteil der Ressourcen.
Was PrismML hier abliefert
Bonasi 8B nutzt 1-Bit-Quantisierung. Statt 16 oder 32 Bit pro Gewicht: ein einziges Bit. Das Ergebnis ist ein Modell, das auf Hardware läuft, bei der normale LLMs nicht mal starten würden.
Zahlenbox
- 14×** — kleiner als vergleichbare 8B-Modelle
- 5×** — energieeffizienter im Betrieb
- 1 Bit** — pro Gewicht statt üblicher 16 Bit
- 8B** — Parameter, gleiche Klasse wie Llama 3 oder Mistral
Warum 1-Bit so brutal effizient ist
Normale LLMs rechnen mit Fließkommazahlen. 1-Bit-Modelle reduzieren jedes Gewicht auf zwei Zustände: an oder aus. Das killt Speicherbedarf und Stromverbrauch gleichzeitig. Multiplikationen werden zu simplen Additionen.
✅ Pro
- Läuft auf Smartphones und Edge-Geräten
- Bruchteil der Stromkosten
- Keine Cloud nötig — Inferenz lokal möglich
❌ Con
- Caltech-Startup, kein Track Record in Produktion
- 8B ist keine Frontier-Klasse
- 1-Bit-Quantisierung hat theoretische Genauigkeitsgrenzen
Was das bedeutet
Wenn 1-Bit-Modelle tatsächlich mit klassischen 8B-Modellen konkurrieren können, verschiebt sich die gesamte Kostenrechnung für KI-Deployment. Unternehmen bräuchten keine teuren GPU-Cluster mehr für Standard-Aufgaben. Und auf dem Smartphone wird lokale KI endlich realistisch — ohne dass der Akku nach zehn Prompts stirbt.