Google greift Nvidia mit zwei neuen KI-Chips an
Google Cloud hat auf der Cloud Next zwei neue TPUs vorgestellt — und schießt damit direkt gegen Nvidia. Die Chips heißen Ironwood und sollen schneller, billiger und effizienter sein als alles, was Google bisher gebaut hat.
Die harten Fakten
- Chip:** Ironwood TPU (7. Generation)
- Ziel:** Training und Inferenz großer KI-Modelle
- Versprechen:** Schneller und günstiger als die Vorgänger
- Verfügbarkeit:** Über Google Cloud
- Strategie:** Eigene Chips pushen, aber Nvidia trotzdem im Angebot behalten
Was Google hier spielt
Google will raus aus der Nvidia-Abhängigkeit. Jeder Cloud-Anbieter zahlt gerade Mondpreise für H100- und B200-GPUs. Eigene Chips bedeuten: bessere Margen, mehr Kontrolle, weniger Betteln bei Jensen Huang.
Aber — und das ist der Witz — Google verkauft gleichzeitig weiter Nvidia-Hardware in seiner Cloud. Man will Kunden nicht verschrecken, die auf CUDA-Ökosystem setzen.
✅ Pro
- Eigenentwicklung senkt langfristig Kosten
- Google kann Chips exakt auf eigene Modelle optimieren
- Kunden bekommen eine echte Alternative zu Nvidia
❌ Con
- TPUs haben ein kleineres Software-Ökosystem als Nvidia-GPUs
- Entwickler müssen Code anpassen
- Nvidia ist beim Datacenter-KI-Markt immer noch der Boss
Was das bedeutet
Google ist nach Amazon (Trainium) der zweite Cloud-Riese, der ernsthaft eigene KI-Chips gegen Nvidia in Stellung bringt. Für Kunden heißt das: Mehr Auswahl, potenziell fallende Preise. Für Nvidia heißt das: Die fettesten Kunden bauen gerade an ihrer Ablösung.