Google baut mit Marvell eigene KI-Chips
Google verhandelt mit Chipdesigner Marvell Technology über zwei neue Spezialchips für die eigenen Rechenzentren. Ziel: effizientere Inferenz — also schnellere, günstigere Antworten von KI-Modellen.
Was konkret geplant ist
Google will weg von der Abhängigkeit bei Standard-Hardware. Statt alles über Nvidia laufen zu lassen, sollen maßgeschneiderte Chips her — optimiert für die eigenen Modelle und Workloads. Marvell bringt das Know-how im Chipdesign mit, Google die Anforderungen aus dem Alltag mit Milliarden Nutzeranfragen.
Zahlenbox
- 2** — neue Spezialchips in Entwicklung
- Marvell** — Chipdesigner mit $5,5 Mrd. Jahresumsatz
- Google** — betreibt eine der größten KI-Infrastrukturen weltweit
Warum das kein Zufall ist
Google hat mit den TPUs (Tensor Processing Units) schon seit Jahren eigene KI-Chips. Aber für Inferenz — also den Betrieb trainierter Modelle — braucht es andere Architekturen als fürs Training. Jede eingesparte Millisekunde und jedes eingesparte Watt rechnet sich bei Milliarden täglicher Anfragen an Gemini und Co.
💡 Was das bedeutet
Google zieht die Chip-Strategie weiter vertikal zusammen: eigene Modelle, eigene Chips, eigene Cloud. Wer seine Inferenz-Hardware selbst designt, kontrolliert Kosten und Geschwindigkeit — und macht sich unabhängiger von Nvidia. Für den Rest der Branche heißt das: Der Chip-Krieg wird nicht nur zwischen Nvidia und AMD ausgetragen, sondern auch direkt in den Serverräumen der Hyperscaler.
✅ Pro
- Weniger Abhängigkeit von Nvidia
- Chips maßgeschneidert für eigene Modelle
- Potenziell günstigere Inferenz für Endnutzer
❌ Con
- Eigenentwicklung dauert Jahre
- Marvell ist kein bewährter KI-Chip-Partner
- Risiko: Milliarden versenkt, wenn Design nicht aufgeht