Gericht schützt Anthropic vor dem Pentagon
Anthropic sagt Nein zu KI-Waffen — und das US-Verteidigungsministerium dreht durch. Jetzt hat eine Richterin dem Pentagon erstmal den Stecker gezogen.
Worum es geht
Die KI-Firma Anthropic verbietet die Nutzung ihrer Technik für autonome Waffen und Massenüberwachung. Klare Hauslinie, steht in den Nutzungsbedingungen. Das Pentagon fand das nicht lustig und stufte Anthropic kurzerhand als Lieferketten-Risiko für die nationale Sicherheit ein.
Was das Gericht entschied
Eine US-Richterin erließ eine einstweilige Verfügung gegen das Vorgehen des Verteidigungsministeriums. Die Einstufung als Sicherheitsrisiko wird blockiert. Anthropic darf vorerst aufatmen.
💡 Was das bedeutet
Wenn eine KI-Firma ethische Grenzen zieht, wird sie vom eigenen Staat zum Feind erklärt. Das Pentagon will offenbar jeden Anbieter auf Linie bringen — wer nicht mitmacht, wird bestraft. Das Gericht sagt: So einfach geht das nicht.
📅 Timeline
- 2023:** Anthropic veröffentlicht eigene KI-Sicherheitsrichtlinien, verbietet militärische Nutzung
- 2025/2026:** Pentagon stuft Anthropic als Lieferketten-Risiko ein
- Jetzt:** Richterin stoppt das Vorgehen per einstweiliger Verfügung
Der größere Kontext
Die US-Regierung pumpt Milliarden in militärische KI. Wer da nicht mitspielen will, bekommt Druck. Google, Microsoft, Amazon — die liefern brav. Anthropic stellt sich quer. Und bekommt dafür die Bürokratie-Keule.