Pentagon will Anthropic zerstören — Richter schlägt Alarm
Das US-Verteidigungsministerium hat Anthropic als Risiko für die Lieferkette eingestuft. Bei einer Anhörung am Dienstag stellte ein Bundesrichter diese Entscheidung offen in Frage.
Was passiert ist
Das Department of Defense (DoD) hat den Claude-Entwickler Anthropic auf eine Liste gesetzt, die das Unternehmen faktisch von Regierungsaufträgen ausschließt. Die Einstufung als "Supply-Chain-Risiko" ist eine der schärfsten Waffen, die das Pentagon gegen Tech-Firmen hat. Wer draufsteht, ist für das gesamte US-Bundesgeschäft praktisch tot.
Der Richter wird deutlich
Bei der Anhörung am Dienstag nahm der zuständige Bezirksrichter kein Blatt vor den Mund. Er nannte das Vorgehen des Pentagon einen "Versuch, Anthropic zu verkrüppeln" — und bezeichnete es als "beunruhigend". Die zentrale Frage: Was sind die wahren Motive des DoD?
Pentagon's attempt to cripple Anthropic is troubling.— US-Bezirksrichter während der Anhörung
Was das bedeutet
Anthropic ist kein kleiner Fisch. Das Unternehmen steht hinter Claude, einem der leistungsfähigsten KI-Modelle der Welt. Wenn das Pentagon gezielt gegen ein führendes KI-Lab vorgeht, hat das Signalwirkung für die gesamte Branche. Jedes KI-Unternehmen, das mit der US-Regierung Geschäfte macht, muss jetzt nervös werden.
Die Lage auf einen Blick
- Betroffenes Unternehmen:** Anthropic (Entwickler von Claude)
- Maßnahme:** Einstufung als Supply-Chain-Risiko durch das DoD
- Folge:** Faktischer Ausschluss von Regierungsaufträgen
- Status:** Richter hinterfragt die Motive des Pentagon öffentlich
Warum das brisant ist
Die US-Regierung pumpt Milliarden in KI-Entwicklung — und erklärt gleichzeitig einen der wichtigsten Entwickler zum Sicherheitsrisiko. Das passt nicht zusammen. Entweder hat das Pentagon handfeste Beweise, die noch nicht öffentlich sind. Oder hier wird ein Unternehmen aus politischen Gründen unter Druck gesetzt.