Gimlet Labs holt 80 Millionen für Multi-Chip-Trick
Ein Startup aus dem Inference-Bereich hat gerade eine fette Series A eingesammelt. Gimlet Labs will KI-Modelle gleichzeitig auf Chips von NVIDIA, AMD, Intel, ARM, Cerebras und d-Matrix laufen lassen.
Das Problem, das alle kennen
KI-Inference ist der Flaschenhals der Branche. Jeder will GPU-Cluster, keiner hat genug davon. Und wer welche hat, ist an einen Hersteller gekettet — meistens NVIDIA.
Gimlet Labs sagt: Warum nur auf einem Chip rechnen, wenn sechs verschiedene gleichzeitig gehen?
Zahlenbox
- $80 Mio.** — Series-A-Runde
- 6 Chip-Architekturen** — NVIDIA, AMD, Intel, ARM, Cerebras, d-Matrix
- 1 Ziel:** Inference über alle Chips gleichzeitig verteilen
Was Gimlet Labs verspricht
Die Technik soll KI-Workloads nicht nur auf einen Chip-Typ beschränken, sondern parallel über verschiedene Architekturen verteilen. Das klingt nach einem Problem, an dem sich schon viele die Zähne ausgebissen haben — Compiler für heterogene Hardware sind brutal komplex.
✅ Pro
- Reduziert Abhängigkeit von NVIDIA
- Nutzt vorhandene Hardware besser aus
- Macht AMD- und Intel-Chips plötzlich relevant für Inference
❌ Con
- Multi-Chip-Orchestrierung ist extrem schwer zu optimieren
- Latenz zwischen verschiedenen Chip-Typen ist ein offenes Problem
- Noch kein Beweis, dass es in Produktion skaliert
💡 Was das bedeutet
Wenn Gimlet Labs liefert, wird der GPU-Markt weniger ein NVIDIA-Monopol und mehr ein offenes Ökosystem. Für jedes Unternehmen, das auf Inference-Wartelisten sitzt, wäre das eine echte Alternative. 80 Millionen sind aber noch kein Beweis — das ist eine Wette.