Google bringt zwei neue KI-Chips für Agents
Google hat die achte Generation seiner TPUs vorgestellt — und spaltet sie erstmals in zwei spezialisierte Varianten auf: den TPU 8t für Training und den TPU 8i für Inference. Beide Chips sind explizit für die Agent-Ära gebaut.
Was Google liefert
- TPU 8t** — optimiert für das Training großer Modelle
- TPU 8i** — optimiert für Inference, also den Betrieb von KI-Agents in Echtzeit
- Generation:** 8, die bisher leistungsstärkste TPU-Familie
- Verfügbarkeit:** über Google Cloud
Warum zwei Chips statt einem?
Training und Inference haben komplett unterschiedliche Anforderungen. Training braucht rohe Rechenpower, Inference braucht Effizienz und niedrige Latenz. Google sagt damit klar: Die Zukunft gehört nicht einem Modell, das einmal trainiert wird — sondern Millionen Agents, die 24/7 laufen.
💡 Was das bedeutet
Die Aufteilung in zwei spezialisierte Chips ist ein Signal. Google wettet darauf, dass Inference-Kosten der Flaschenhals der Agent-Ära werden. Wer Agents im großen Stil deployen will, braucht Hardware, die nicht für Training-Workloads designt wurde — sondern für permanenten Betrieb. Das ist ein direkter Angriff auf Nvidias Dominanz im Datacenter.
⚖️ Google vs. Nvidia
- Strategie:** Google baut eigene Chips für eigene Cloud — Nvidia verkauft an alle
- Vorteil Google:** Vertikale Integration, Cloud-Kunden kriegen alles aus einer Hand
- Vorteil Nvidia:** Breitere Ökosystem-Unterstützung, CUDA-Monopol
- Kernfrage:** Reicht Googles Cloud-Reichweite, um gegen den GPU-Standard anzukommen?