Pentagon unterstellt Anthropic KI-Sabotage im Krieg
Das US-Verteidigungsministerium wirft Anthropic vor, seine KI-Modelle im Ernstfall manipulieren zu können. Mitten im Krieg. Die Firma sagt: Totaler Quatsch.
Der Vorwurf ist heftig
Das Department of Defense behauptet: Anthropic könnte seine Claude-Modelle während eines militärischen Einsatzes sabotieren. Sprich — der KI-Entwickler hätte theoretisch einen Kill-Switch für Werkzeuge, die das Militär nutzt.
Das ist nicht irgendein Reddit-Thread. Das kommt vom Pentagon.
Anthropic wehrt sich
Die Führungsriege von Anthropic dementiert öffentlich. Ihre Aussage:
Das ist technisch unmöglich.— Anthropic-Führung gegenüber Wired
- Vorwurf:** Manipulation von KI-Modellen im laufenden Militäreinsatz
- Beschuldigter:** Anthropic (Hersteller von Claude)
- Ankläger:** US Department of Defense
- Antwort:** Technisch nicht machbar, sagt das Unternehmen
Warum das alle angeht
Hier geht es um die Grundsatzfrage: Wer kontrolliert KI-Modelle, wenn sie in der Verteidigung eingesetzt werden? Das Pentagon will offenbar sicherstellen, dass kein privates Unternehmen den Stecker ziehen kann. Anthropic will beweisen, dass genau das nicht geht.
Der Konflikt zeigt: Die US-Regierung traut den KI-Firmen nicht blind. Und das ist erst der Anfang dieser Debatte.