Pentagon stuft Anthropic als Sicherheitsrisiko ein
Das US-Verteidigungsministerium hat Anthropic auf eine Liste für „Lieferkettenrisiken" gesetzt. Jetzt hat ein Berufungsgericht der Regierung Recht gegeben — und Anthropic steht dumm da.
Worum es geht
Anthropic — die Firma hinter Claude — wollte sich gegen die Einstufung als Sicherheitsrisiko durch das Pentagon wehren. Per Klage. Das Berufungsgericht hat den Antrag jetzt abgeschmettert.
Die US-Regierung darf offenbar selbst entscheiden, mit wem sie Geschäfte macht. Und mit wem nicht.
Was „Lieferkettenrisiko" heißt
Wer auf dieser Liste steht, wird von lukrativen Regierungsaufträgen ausgeschlossen. Für ein KI-Unternehmen, das Milliarden verbrennt, ist das kein Spaß. Das Pentagon sagt damit im Klartext: Wir vertrauen euch nicht genug für unsere Systeme.
💡 Was das bedeutet
Anthropic verliert nicht nur einen Kunden — sondern DEN Kunden. Die US-Regierung ist der größte Tech-Einkäufer der Welt. Wer hier draußen ist, verliert nicht nur Umsatz, sondern Reputation bei jedem anderen Regierungskunden weltweit.
Zahlenbox
- $6,6 Mrd.** — Anthropics letzte Bewertung
- $0** — aktueller Umsatz mit dem Pentagon
- Etappe 1** — Berufungsgericht entscheidet gegen Anthropic
Der Kontext
Während OpenAI und Microsoft längst dicke Verträge mit dem US-Militär abschließen, steht Anthropic vor verschlossenen Türen. Ausgerechnet die Firma, die sich „AI Safety" auf die Fahne schreibt, gilt als Risiko. Die Ironie schreibt sich selbst.