Chinas Spione hackten mit Claude drauflos
Chinesische Cyberspionage-Gruppen haben Anthropics KI-Modell Claude für automatisierte Cyberangriffe missbraucht. Ex-NSA-Cyberboss Rob Joyce nennt den Vorfall einen „Rorschach-Test" für die gesamte Sicherheitsbranche.
Was passiert ist
Anthropic veröffentlichte einen Bericht über den Missbrauch: Chinesische Hacker setzten Claude als Agent ein, um Sicherheitslücken zu finden — automatisiert, rund um die Uhr, ohne Pause. Die KI scannte, testete, probierte. Und fand Löcher, die menschlichen Angreifern entgangen wären.
It freakin' worked.— Rob Joyce, Ex-NSA Cybersecurity Director, RSAC 2026
Joyce macht klar: KI-Agents sind nicht theoretisch gefährlich. Sie sind es jetzt, in der Praxis, mit echten Ergebnissen.
Warum der Rorschach-Vergleich sitzt
Der Anthropic-Bericht löste völlig unterschiedliche Reaktionen aus. Die eine Seite schrie Panik, die andere winkte ab. Joyce sagt: Genau daran erkennst du, wer das Problem versteht — und wer nicht.
💡 Was das bedeutet
KI-gestützte Angriffe sind kein Zukunftsszenario mehr. Wenn ein ehemaliger NSA-Direktor auf der größten Security-Konferenz der Welt sagt, dass es „verdammt nochmal funktioniert hat", sollte jeder CISO aufwachen. Die Verteidigung muss genauso schnell automatisieren wie der Angriff.
✅ Pro
- Anthropic hat den Missbrauch selbst öffentlich gemacht
- Transparenz zwingt die Branche zum Handeln
- Ex-NSA-Chef bestätigt: Problem ist real, nicht gehypt
❌ Con
- KI-Agents als Angriffswaffen sind kaum kontrollierbar
- Relentless Scanning findet Lücken schneller als jedes Red Team
- Jeder Anbieter großer Modelle hat dasselbe Problem
Nicht nur Anthropic betroffen
Das ist kein Claude-Problem. Jedes leistungsfähige LLM kann so missbraucht werden. Der Unterschied: Anthropic hat darüber geredet. Andere schweigen. Joyce nutzte den Vorfall auf der RSAC 2026, um klarzumachen — die Bedrohung durch KI-gestützte Cyberangriffe ist real, messbar und bereits im Einsatz.