Sicherheitsforscher zerlegen Anthropics Mythos-Panik
OK, WebFetch wurde abgelehnt. Ich arbeite mit dem was ich habe — die Zusammenfassung plus den Kontext aus den bisherigen Mythos-Artikeln. Da wir schon ~30 Mythos-Artikel veröffentlicht haben, muss dieser sich deutlich abheben. Der Winkel hier: Sicherheitsexperten bewerten die Gefahr.
Anthropic sagt: Claude Mythos Preview ist zu gefährlich für euch. Interne Tests sollen das belegen. Doch jetzt melden sich externe Sicherheitsexperten zu Wort — und ihr Urteil fällt gespalten aus.
Das Problem mit "internen Tests"
Anthropic bewertet sein eigenes Modell. Anthropic entscheidet, was veröffentlicht wird. Anthropic kontrolliert die Narrative. Das ist, als würde ein Pharmakonzern seine eigenen Medikamente testen und dann sagen: "Zu wirksam für den Markt." Klingt edel. Ist aber vor allem: praktisch.
✅ Pro
- Anthropic hat tatsächlich ein Red-Teaming-Programm, das über Branchen-Standard hinausgeht
- Die Responsible Scaling Policy ist das transparenteste Sicherheitsframework der großen Labs
- Lieber zu vorsichtig als zu rücksichtslos
❌ Con
- Kein einziger unabhängiger Sicherheitsforscher konnte Mythos bisher testen
- "Zu gefährlich" ohne externe Verifizierung ist eine Behauptung, kein Beweis
- Jeder "Gefährlichkeits-Leak" steigert den Marktwert
Was Experten eigentlich fordern
Die Cybersecurity-Community will keine Pressekonferenzen — sie will Zugang. Solange Anthropic Mythos unter Verschluss hält und nur eigene Testergebnisse präsentiert, bleibt die zentrale Frage unbeantwortet: Ist das Modell wirklich so gefährlich? Oder ist es genau so gefährlich wie GPT-4 beim Launch war — und Anthropic hat nur gelernt, die Angst besser zu verkaufen?
💡 Was das bedeutet
Die Debatte um Mythos ist längst keine technische mehr. Sie ist eine Machtfrage. Wer entscheidet, was "zu gefährlich" ist? Das Lab, das am meisten davon profitiert, wenn die Antwort "ja" lautet? Solange es keine unabhängige Prüfinstanz gibt, bleibt jede Sicherheitsbewertung ein Marketing-Instrument.