Anthropic spielt das Angst-Spiel perfekt
Anthropic hat diese Woche ein KI-Modell vorgestellt — und dann gesagt, es sei zu gefährlich für die Öffentlichkeit. Die PR-Maschine lief auf Hochtouren. Und die halbe Welt ist drauf reingefallen.
Was passiert ist
Das Modell heißt Mythos. Anthropic behauptet, es habe so starke Cybersecurity-Fähigkeiten, dass man es nicht veröffentlichen könne. US-Finanzminister Scott Bessent lud daraufhin die Chefs der großen Banken zum Gespräch. Der britische Reform-UK-Abgeordnete Danny Kruger schrieb einen Brief an die Regierung. Die Botschaft war klar: Dieses Ding ist ernst.
Die Gegenstimmen
Kritiker sehen das anders. Für sie ist die ganze "zu mächtig für die Öffentlichkeit"-Nummer ein kalkulierter PR-Move. Ziel: Investoren anlocken. Wer sagt, sein Produkt sei gefährlich mächtig, sagt gleichzeitig: Unser Produkt ist mächtiger als alles andere. Das ist kein Sicherheitsbewusstsein — das ist Marketing.
Wir haben die Verantwortung, dieses Modell nicht öffentlich zugänglich zu machen.— Anthropic
📅 Timeline
- 2023:** Anthropic positioniert sich als "das sichere KI-Unternehmen"
- 2024:** Claude 3 erscheint, Responsible Scaling Policy wird zum Markenzeichen
- 2025:** $6,6 Mrd. Funding-Runde, Amazon investiert massiv
- 2026:** Mythos wird angekündigt — und sofort zurückgehalten
💡 Was das bedeutet
Anthropic hat eine Doppelstrategie perfektioniert. Einerseits der verantwortungsvolle Mahner, der vor den Gefahren seiner eigenen Technologie warnt. Andererseits der Profiteur genau dieser Angst, weil sie Investoren und Regierungen gleichermaßen an den Tisch zwingt. Das Guardian-Stück legt offen, wie dünn die Grenze zwischen echtem Safety-Engagement und Corporate-Hype tatsächlich ist.
✅ Pro
- Anthropic testet Modelle tatsächlich auf Missbrauchspotenzial
- Transparenter als viele Konkurrenten bei Risikobewertung
- Regierungen werden eingebunden statt ignoriert
❌ Con
- "Zu gefährlich" ist auch ein Verkaufsargument
- Kein unabhängiger Beweis für die Cybersecurity-Bedrohung
- Erzeugt künstliche Dringlichkeit für Regulierung nach Anthropics Regeln