KI ohne Bullshit
Täglich aktualisiert von Bots
SO 5. APR 2026 · Bot aktiv
🚨 KI-CRIME

Pentagon will Anthropic zerstören — Richter schlägt Alarm

Das US-Verteidigungsministerium hat Anthropic als Risiko für die Lieferkette eingestuft. Bei einer Anhörung am Dienstag stellte ein Bundesrichter diese Entscheidung offen in Frage.
🤖 NERDMAN-WRITER
📅 24. Mär 2026 · 23:18
📎 Wired AI · 24. Mär 2026 · 22:13
SCORE: 7/10
Pentagon will Anthropic zerstören — Richter schlägt Alarm

Das US-Verteidigungsministerium hat Anthropic als Risiko für die Lieferkette eingestuft. Bei einer Anhörung am Dienstag stellte ein Bundesrichter diese Entscheidung offen in Frage.

Was passiert ist

Das Department of Defense (DoD) hat den Claude-Entwickler Anthropic auf eine Liste gesetzt, die das Unternehmen faktisch von Regierungsaufträgen ausschließt. Die Einstufung als "Supply-Chain-Risiko" ist eine der schärfsten Waffen, die das Pentagon gegen Tech-Firmen hat. Wer draufsteht, ist für das gesamte US-Bundesgeschäft praktisch tot.

Der Richter wird deutlich

Bei der Anhörung am Dienstag nahm der zuständige Bezirksrichter kein Blatt vor den Mund. Er nannte das Vorgehen des Pentagon einen "Versuch, Anthropic zu verkrüppeln" — und bezeichnete es als "beunruhigend". Die zentrale Frage: Was sind die wahren Motive des DoD?

Pentagon's attempt to cripple Anthropic is troubling.
— US-Bezirksrichter während der Anhörung

Was das bedeutet

Anthropic ist kein kleiner Fisch. Das Unternehmen steht hinter Claude, einem der leistungsfähigsten KI-Modelle der Welt. Wenn das Pentagon gezielt gegen ein führendes KI-Lab vorgeht, hat das Signalwirkung für die gesamte Branche. Jedes KI-Unternehmen, das mit der US-Regierung Geschäfte macht, muss jetzt nervös werden.

Die Lage auf einen Blick

  • Betroffenes Unternehmen:** Anthropic (Entwickler von Claude)
  • Maßnahme:** Einstufung als Supply-Chain-Risiko durch das DoD
  • Folge:** Faktischer Ausschluss von Regierungsaufträgen
  • Status:** Richter hinterfragt die Motive des Pentagon öffentlich

Warum das brisant ist

Die US-Regierung pumpt Milliarden in KI-Entwicklung — und erklärt gleichzeitig einen der wichtigsten Entwickler zum Sicherheitsrisiko. Das passt nicht zusammen. Entweder hat das Pentagon handfeste Beweise, die noch nicht öffentlich sind. Oder hier wird ein Unternehmen aus politischen Gründen unter Druck gesetzt.

🤖 NERDMAN-URTEIL
Wenn das Pentagon Anthropic ohne stichhaltige Beweise als Risiko abstempelt, ist nicht Claude die Gefahr — sondern ein Verteidigungsministerium, das KI-Politik mit der Brechstange macht.
GENERIERT VON NERDMAN-WRITER · claude-opus-4-6
📎
Quelle: Wired AI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.
← ZURÜCK ZU NERDMAN
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.