Pentagon beschuldigt Anthropic der KI-Sabotage
Das US-Verteidigungsministerium wirft Anthropic vor, seine KI-Modelle mitten im Kriegseinsatz manipulieren zu können. Die Firma sagt: Quatsch.
Der Vorwurf
Das Department of Defense behauptet: Anthropic hätte theoretisch die Macht, seine eigenen AI-Tools im Ernstfall zu sabotieren. Sprich — wenn das Militär auf Claude setzt, könnte die Firma den Stecker ziehen oder das Modell verbiegen. Ein harter Vorwurf an ein Unternehmen, das sich gerne als verantwortungsvollster KI-Entwickler der Welt inszeniert.
Was Anthropic dagegenhält
Anthropic-Executives widersprechen öffentlich und deutlich.
- Die Position:** Eine solche Manipulation sei technisch unmöglich
- Der Ton:** Kein diplomatisches Rumgeeiere, sondern ein klares Dementi
- Der Kontext:** Anthropic liefert KI-Technologie, die auch in sicherheitskritischen Bereichen eingesetzt wird
💡 Warum das wichtig ist
Hier geht es nicht um ein akademisches Gedankenexperiment. Wenn das Pentagon einem KI-Anbieter öffentlich vorwirft, er könnte zur Waffe gegen die eigene Armee werden, hat das Konsequenzen. Für Verträge. Für Vertrauen. Für die gesamte Branche.
Andere KI-Firmen wie OpenAI und Google drängen aggressiv ins Militärgeschäft. Anthropic steht jetzt unter Rechtfertigungsdruck — obwohl die Firma bisher eher durch Zurückhaltung bei Militär-Deals aufgefallen ist.
Das größere Bild
Die USA stecken Milliarden in KI-gestützte Verteidigung. Aber wer kontrolliert die Modelle? Wer hat den Kill-Switch? Diese Fragen stellt das Pentagon jetzt laut. Und Anthropic muss antworten, ob es will oder nicht.