Anthropic sitzt auf geheimem Super-Modell „Mythos"
Diese Woche hatte Anthropic ein Leak-Problem. Und zwar kein kleines.
Was rausgekommen ist
Jemand hat Details zu einem neuen Anthropic-Modell geleakt: Mythos. Größer als Opus. Intern soll es einen Sprung bei Cyber-Fähigkeiten bieten — also beim Finden und Ausnutzen von Sicherheitslücken. Anthropic hat das Modell offenbar bewusst zurückgehalten.
Aber das war nicht alles. Auch der komplette Quellcode von Claude Code ist ins Netz gelangt. Für ein Unternehmen, das Sicherheit als Kernwert predigt, ist das ein harter Schlag.
Zahlenbox
- 1** — neues unveröffentlichtes Modell (Mythos), größer als Opus
- 2** — Leaks in einer Woche (Mythos-Details + Claude Code Quellcode)
- 2** — kompromittierte Plattformen (Axios, LiteLLM)
Die Angriffe häufen sich
Anthropic war nicht das einzige Ziel. Axios wurde kompromittiert. Kurz davor hatte es LiteLLM erwischt. Das Muster ist klar: KI-Infrastruktur wird zum Hauptziel für Angreifer.
✅ Pro
- Verteidigung schlägt Angriff in den meisten Einzelfällen
- Leaks zeigen, dass interne Sicherheitsbewertungen existieren
❌ Con
- Die Angriffsfläche wächst schneller als die Abwehr
- Wenn selbst Anthropic leckt, hat der Rest der Branche ein Problem
- Modelle mit Cyber-Fähigkeiten in falschen Händen sind kein Spaß
💡 Was das bedeutet
Anthropic testet intern Modelle, die sie selbst für zu gefährlich halten, um sie rauszubringen. Dass genau diese Info jetzt öffentlich ist, zeigt: Das größte Sicherheitsrisiko sitzt nicht im Modell. Es sitzt in der Organisation drumherum. Wer KI-Sicherheit ernst nimmt, muss zuerst seine eigenen Leaks in den Griff kriegen.