Anthropic hält sein stärkstes Modell zurück
Anthropic hat ein neues Modell gebaut — und gibt es niemandem. Claude Mythos ist das erste KI-Modell seit GPT-2, das bewusst nicht öffentlich zugänglich gemacht wird.
Kein Hype-Launch, sondern Notbremse
Der Unterschied zu GPT-2 damals: OpenAI wusste 2019 schlicht nicht, was passiert, wenn man Text-on-Demand auf die Welt loslässt. Die Zurückhaltung war Vorsicht ins Blaue. Bei Claude Mythos ist es das Gegenteil. Anthropic weiß offenbar sehr genau, was das Modell kann — und findet das zu gefährlich für jeden mit einer Kreditkarte.
Was wir wissen
- Release:** Kein öffentlicher Zugang geplant
- System Card:** Veröffentlicht, beschreibt Fähigkeiten und Risiken
- Vergleich:** Erstes zurückgehaltenes Modell seit GPT-2 (2019)
- Grund:** Keine diffuse Angst, sondern konkrete Einschätzung der Risiken
📅 Timeline
- 2019:** OpenAI hält GPT-2 zurück — aus Vorsicht. Stellt sich als harmlos heraus.
- 2024:** Anthropic veröffentlicht Claude 3.5 Sonnet und Opus regulär.
- 2026:** Claude Mythos wird gebaut — und bleibt unter Verschluss.
💡 Was das bedeutet
Sieben Jahre nach GPT-2 passiert zum ersten Mal wieder dasselbe — aber aus einem komplett anderen Grund. Anthropic sagt nicht „wir wissen nicht, was passiert". Anthropic sagt: „Wir wissen es, und genau deshalb bekommt ihr es nicht."
Der Elefant im Raum
Das wirft Fragen auf. Welche konkreten Fähigkeiten sind so brisant, dass selbst ein Unternehmen mit Umsatzzielen auf den Launch verzichtet? Die System Card gibt Hinweise, aber Anthropic spielt das Spiel clever: Transparenz über die Existenz, Kontrolle über den Zugang.
✅ Pro
- Anthropic handelt nach eigener Responsible-AI-Doktrin
- System Card veröffentlicht — keine Geheimniskrämerei
- Zeigt: Nicht jedes Modell muss sofort auf den Markt
❌ Con
- Keine unabhängige Überprüfung der Behauptungen möglich
- „Zu gefährlich für euch" kann auch Marketing sein
- Erzeugt mehr Mystik als Klarheit