Briten testen Mythos — und finden echte Risiken
Anthropics neues Flaggschiff-Modell Claude Mythos ist noch nicht öffentlich. Aber das britische AI Security Institute hat es bereits auf Herz und Nieren geprüft — und die Ergebnisse sind ein zweischneidiges Schwert.
Was die Briten herausgefunden haben
Das AI Security Institute (AISI) hat Claude Mythos Preview in einer offiziellen Evaluation getestet. Ergebnis: Das Modell macht Angreifer nachweislich gefährlicher als alle Vorgänger-Modelle von Anthropic. Kein theoretisches Risiko — gemessener Fakt.
Die gute Nachricht
Mythos ist in seiner jetzigen Form nicht das Monster, das manche herbeigeredet haben. Tom Friedman warnte, Schüler könnten damit Stromnetze lahmlegen. Davon ist Mythos weit entfernt. Die Panik-Fraktion muss zurückrudern.
✅ Pro
- Kein apokalyptisches Risiko-Level erreicht
- Friedmans Schulkind-Szenario: widerlegt
- AISI-Evaluation zeigt transparente Prüfung
❌ Con
- Erhöht nachweislich das Angriffspotenzial
- Stärker als alle bisherigen Claude-Modelle in diesem Bereich
- Noch unveröffentlicht — öffentliche Prüfung also eingeschränkt
Was das bedeutet
Anthropic verkauft sich als die "Safety-First"-Firma der KI-Branche. Wenn jetzt ausgerechnet ihr Spitzenmodell Angreifern mehr Werkzeuge in die Hand gibt als die Vorgänger, wird das Narrativ brüchig. Die Frage ist nicht ob Mythos gefährlich ist — sondern ob Anthropic den Release trotzdem durchzieht.
Zahlenbox
- 0** — öffentliche Nutzer bisher (Modell noch unter Verschluss)
- 1** — offizielle staatliche Evaluation abgeschlossen
- ↑** — Angriffspotenzial gegenüber Vorgängern gestiegen
Gary Marcus ordnet ein
Der KI-Kritiker Gary Marcus liest die AISI-Ergebnisse als Bestätigung seiner Linie: Die Modelle werden mächtiger, aber nicht klüger — und die Risiken wachsen schneller als die Sicherheitsmaßnahmen. Für Marcus ist Mythos der Beweis, dass "Responsible Scaling" ein Marketing-Begriff bleibt, solange die Modelle bei jedem Release gefährlicher werden.