Anthropic hält Claude Mythos zurück — zu gefährlich
Anthropic traut sich nicht. Das Unternehmen hat sein neues Modell Claude Mythos Preview als zu riskant für eine Veröffentlichung eingestuft — und liefert diesmal tatsächlich Belege.
Das kennen wir doch
Vor sieben Jahren zog OpenAI die gleiche Nummer mit GPT-2. "Zu gefährlich für die Öffentlichkeit." Die Branche lachte sich schlapp. Ein Textgenerator, der holprige Absätze ausspuckte — gefährlich? Bitte.
Jetzt steht Anthropic am selben Podium. Aber die Zeiten haben sich geändert.
Was Claude Mythos kann
Das Modell hat eigenständig Tausende Sicherheitslücken in Betriebssystemen und Browsern gefunden. Schwachstellen, die kaum ein Mensch hätte überprüfen können. Keine theoretische Gefahr, keine vage Warnung — konkrete Exploits.
Zahlenbox
- Tausende** — gefundene Schwachstellen in OS und Browsern
- 7 Jahre** — zwischen GPT-2-Drama und Claude Mythos
- 0** — öffentlicher Zugang zum vollen Modell
⚖️ 2019 vs. 2026
- GPT-2:** Konnte halbwegs kohärente Texte schreiben. "Gefahr" war Marketing.
- Claude Mythos:** Findet aktiv Sicherheitslücken in kritischer Infrastruktur. Gefahr ist dokumentiert.
- Evidenz damals:** Null. Bauchgefühl und PR-Kalkül.
- Evidenz heute:** Tausende reproduzierbare Schwachstellen.
💡 Was das bedeutet
Der Unterschied zwischen 2019 und 2026 ist brutal simpel: Diesmal stimmt es. Wenn ein Modell eigenständig Angriffsvektoren in Software findet, die Milliarden Menschen nutzen, ist "wir veröffentlichen das mal nicht" keine PR-Masche — sondern die einzig vernünftige Entscheidung. Die Frage ist nur: Wie lange hält der Deckel?