Britische Behörde testet Anthropics gefährlichstes Modell
Anthropic hat sein neues Modell Mythos Preview zunächst nur einer Handvoll Industriepartner gegeben. Der Grund: Das Ding ist offenbar verdammt gut in Cyberangriffs-Aufgaben. Jetzt hat die britische Regierung nachgemessen.
Was passiert ist
Das UK AI Security Institute (AISI) hat eine unabhängige Evaluation von Mythos Preview veröffentlicht. Damit gibt es erstmals eine staatliche Einschätzung, die Anthropics eigene Warnungen überprüft. Die Ergebnisse bestätigen: Das Modell ist bei Computer-Security-Tasks auffällig leistungsfähig.
Die Lage im Überblick
- Modell:** Mythos Preview von Anthropic
- Status:** Eingeschränkter Zugang, nur für ausgewählte Industriepartner
- Prüfer:** UK AI Security Institute (AISI), staatlich und unabhängig
- Befund:** Hohe Fähigkeiten bei Cybersecurity-Aufgaben bestätigt
Was Anthropic gemacht hat
Anthropic hat den Release bewusst gebremst. Statt das Modell sofort für alle freizugeben, bekommen erst kritische Industriepartner Zugang. Begründung: Die sollen sich vorbereiten können, bevor ein Modell mit solchen Fähigkeiten in der Breite verfügbar wird.
Das ist ungewöhnlich. Normalerweise hauen die großen Labs ihre Modelle raus und reden hinterher über Risiken.
💡 Was das bedeutet
Erstmals überprüft eine staatliche Stelle die Gefahren-Einschätzung eines KI-Labs mit eigenen Tests — und kommt zu ähnlichen Ergebnissen. Das ist ein Präzedenzfall. Wenn Regierungen anfangen, Modelle vor dem Release unabhängig zu bewerten, verschiebt sich die Machtbalance zwischen Labs und Aufsicht.
✅ Pro
- Unabhängige staatliche Prüfung statt reiner Selbsteinschätzung
- Anthropic bremst freiwillig statt blind zu releasen
- Transparenz gegenüber der Öffentlichkeit
❌ Con
- Nur eine erste Evaluation, kein vollständiger Audit
- Eingeschränkter Zugang heißt auch: weniger externe Forscher können prüfen
- Andere Labs haben keinen vergleichbaren Prozess