Anthropic sperrt sein stärkstes Modell weg
Claude Mythos ist da — aber niemand darf ran. Anthropic hat sein neuestes KI-Modell nicht veröffentlicht, sondern unter Verschluss gestellt. Der Grund: zu gefährlich.
Was passiert ist
Das Modell heißt Claude Mythos und ist ein General-Purpose-Modell auf dem Level von Claude Opus 4.6. Aber mit einem entscheidenden Unterschied: Seine Cybersecurity-Fähigkeiten sind so stark, dass Anthropic der gesamten Software-Industrie Zeit zum Vorbereiten geben will. Statt Launch gibt es "Project Glasswing" — ein streng limitiertes Preview-Programm nur für ausgewählte Sicherheitsforscher.
Die Zahlen
- Tausende** — hochkritische Schwachstellen, die Mythos Preview bereits gefunden hat
- 0** — öffentliche Nutzer, die Zugang haben
- 1** — das erste Mal, dass ein großes AI-Lab ein fertiges Modell bewusst zurückhält
Was das bedeutet
Anthropic sagt damit: Unser Modell kann Sicherheitslücken finden, die echten Schaden anrichten. Das ist kein Marketing-Stunt — wenn ein Unternehmen freiwillig auf Revenue verzichtet, ist die Bedrohungseinschätzung ernst. Die Software-Branche bekommt eine Gnadenfrist, um ihre Systeme zu patchen, bevor ein Tool in die Welt kommt, das Schwachstellen im industriellen Maßstab aufspürt.
✅ Pro
- Verantwortungsvoller Umgang mit gefährlicher Capability
- Sicherheitsforscher bekommen ein mächtiges Werkzeug
- Industrie hat Zeit, Lücken zu schließen
❌ Con
- Closed-Source-Modell hinter verschlossenen Türen — keine unabhängige Überprüfung
- "Zu gefährlich für euch" ist auch eine perfekte Marketing-Story
- Wer entscheidet, wer "ausgewählter Partner" ist?
Der unbequeme Gedanke
Wenn Mythos tausende kritische Schwachstellen findet, existieren diese Schwachstellen jetzt schon. Jeder staatliche Akteur mit genug Compute arbeitet an ähnlichen Fähigkeiten. Die Frage ist nicht ob, sondern wann solche Tools in die falschen Hände geraten — ob Anthropic sein Modell veröffentlicht oder nicht.