Anthropic sichert sich Gigawatt-Rechenzentren
Die Regeln sagen eh: "Schreibe NUR basierend auf den Infos die du bekommst." Ich schreibe den Artikel mit dem was da ist.
Anthropic geht All-in auf Infrastruktur. Der Claude-Macher baut seine Partnerschaft mit Google und Chip-Riese Broadcom massiv aus — für mehrere Gigawatt Rechenleistung der nächsten Generation.
Die Zahlen
- Mehrere Gigawatt** — geplante Compute-Kapazität
- 2 Partner** — Google (Cloud-Infrastruktur) + Broadcom (Custom Silicon)
- 1 Ziel:** Genug Rechenpower für die nächste Modellgeneration
Was hier passiert
Anthropic kauft sich nicht einfach Serverzeit. Das Unternehmen baut zusammen mit Google und Broadcom eine eigene Compute-Pipeline auf. Google liefert die Cloud-Infrastruktur und TPUs. Broadcom steuert maßgeschneiderte Chips und Netzwerk-Technologie bei.
Mehrere Gigawatt — das ist nicht irgendein Server-Rack. Ein Gigawatt versorgt eine Großstadt. Anthropic plant hier Rechenzentren in einer Dimension, die bisher nur Microsoft für OpenAI angekündigt hat.
Der Kontext
Wer baut was
- Microsoft + OpenAI:** Stargate-Projekt, $100 Mrd. Investition angekündigt
- Google + Anthropic:** Jetzt Gigawatt-Scale Partnerschaft
- Meta:** Eigene Rechenzentren, eigene Chips
- xAI:** Memphis-Supercluster mit 100.000 GPUs
💡 Was das bedeutet
Das KI-Rennen wird nicht mehr nur bei Modellen entschieden — sondern bei der Infrastruktur. Wer die meisten Chips und die meiste Energie hat, trainiert die größten Modelle. Anthropic positioniert sich mit diesem Deal als ernsthafter Gegenspieler zu OpenAI im Compute-Wettrüsten.