Meta kauft Millionen Amazon-CPUs für KI
Kein Tippfehler: Meta will nicht GPUs. Meta will CPUs — und zwar Millionen davon. Der Zuckerberg-Konzern hat sich einen massiven Deal mit Amazon gesichert, um deren hauseigene Prozessoren für KI-Agenten-Workloads einzusetzen.
Warum CPUs und nicht GPUs?
GPUs trainieren Modelle. Aber wenn Millionen KI-Agenten gleichzeitig laufen sollen — E-Mails beantworten, Code schreiben, Daten durchsuchen — braucht man andere Hardware. CPUs sind billiger, effizienter bei Inferenz und besser verfügbar als Nvidias dauerausverkaufte H100-Chips.
Zahlenbox
- Millionen** — bestellte Amazon-CPUs von Meta
- 2 Firmen** — die beiden größten KI-Infrastruktur-Betreiber der Welt
- $0** — was Nvidia an diesem Deal verdient
Der neue Chip-Krieg
Die alte Geschichte: Alle kämpfen um Nvidia-GPUs. Die neue Geschichte: Tech-Giganten bauen eigene Chips und kaufen sie untereinander.
📅 Timeline
- 2023:** Nvidia-GPUs sind das neue Gold — jeder will H100s
- 2024:** Amazon baut eigene Trainium- und Graviton-Chips aus
- 2025:** Google, Microsoft, Meta investieren Milliarden in Custom Silicon
- 2026:** Meta kauft massenhaft Amazon-CPUs — der Chip-Markt kippt
💡 Was das bedeutet
Der KI-Markt spaltet sich. Training bleibt GPU-Land. Aber Inferenz — also der Betrieb von Agenten im Alltag — wird zum CPU-Geschäft. Wer die billigste Inferenz-Hardware kontrolliert, kontrolliert die Agent-Ökonomie. Meta und Amazon haben das verstanden. Nvidia sollte nervös werden.
✅ Pro
- Meta reduziert Abhängigkeit von Nvidia
- Amazon beweist: Eigene Chips haben echte Großkunden
- Inferenz-Kosten könnten drastisch sinken
❌ Con
- Amazon wird zum Hardware-Lieferanten eines direkten Konkurrenten
- Lock-in-Risiko: Meta bindet sich an Amazons Chip-Architektur
- Custom Silicon heißt: weniger Software-Ökosystem als bei Nvidia