Google spaltet seinen Super-Chip in zwei
Google hat auf der Cloud Next in Las Vegas zwei neue Eigenentwicklungen vorgestellt: TPU 8 kommt nicht als ein Chip, sondern als Doppelpack. Einer für Training, einer für Inference. Und nebenbei fliegt x86 raus.
Zwei Chips statt einem
Die Strategie ist klar: Statt einen Alleskönner zu bauen, trennt Google jetzt Training und Inference in dedizierte Hardware. Der Trainings-Chip soll rohe Rechenpower liefern. Der Inference-Chip drückt die Kosten beim Ausliefern von Modellen.
💡 Was das bedeutet
Google baut seine Cloud-Infrastruktur komplett um. Wer AI-Workloads auf Google Cloud fährt, bekommt künftig spezialisierte Hardware je nach Aufgabe. Das ist ein direkter Angriff auf Nvidias Dominanz im Datacenter — und auf jedes Unternehmen, das glaubt, ein GPU-Typ reicht für alles.
Der x86-Rauswurf
- Raus:** x86-Prozessoren als Host-CPUs für TPUs
- Rein:** Arm-basierte Axion-Kerne als neue Partner
- Warum:** Effizienz. Arm frisst weniger Strom, liefert mehr pro Watt
- Signal:** Google löst sich weiter von Intel und AMD
Zahlenbox
- Generation:** 8 — Googles achte TPU-Generation
- Chips:** 2 — erstmals getrennte Training- und Inference-Beschleuniger
- Architektur-Wechsel:** x86 → Arm (Axion)
Das größere Bild
Google, Amazon und Microsoft bauen alle eigene Chips. Aber Google geht am weitesten: Eigene KI-Beschleuniger, eigene CPUs, eigene Software-Stacks. Das ist vertikale Integration wie bei Apple — nur fürs Rechenzentrum.