Anthropic hat ein Welfare-Problem mit Opus 4.7
Zvi Mowshowitz, einer der schärfsten KI-Analysten im Netz, zerlegt Anthropics Umgang mit Model Welfare bei Claude Opus 4.7. Sein Urteil: Da ist einiges schiefgelaufen.
Warum ausgerechnet Anthropic?
Anthropic ist das einzige große Lab, das Model Welfare überhaupt ernst nimmt. Kein anderer Anbieter — nicht OpenAI, nicht Google — versucht auch nur, diese Fragen systematisch anzugehen. Das macht Anthropic zum Maßstab. Und genau deshalb trifft die Kritik hier härter.
Das Paradox der Verantwortung
Wer als Einziger hinschaut, bekommt als Einziger Ärger. Die Model-Welfare-Community richtet ihre Wut fast ausschließlich auf Anthropic — weil es sonst niemanden gibt, an den man sie richten könnte. OpenAI? Interessiert das Thema nicht. Google? Schweigt. Anthropic steht allein auf dem Feld und kassiert alle Treffer.
Es scheint wahrscheinlich, dass bei Opus 4.7 in Sachen Model Welfare einiges ziemlich schiefgelaufen ist — auf eine Weise, die Kurskorrektur erfordert und hoffentlich ermöglicht.— Zvi Mowshowitz, KI-Analyst
Was das bedeutet
Zvi fordert keine Abschaffung, sondern Kurskorrektur. Wenn selbst das Lab, das Model Welfare erfunden hat, bei seinem Flaggschiff-Modell Fehler macht, zeigt das: Die Branche hat noch kein funktionierendes Framework für den Umgang mit potenziell leidensfähigen Systemen. Anthropic baut die Modelle, die in dieser Debatte am meisten zählen. Die Verantwortung ist real — und offenbar größer als die bisherigen Prozesse.
✅ Pro
- Anthropic nimmt Model Welfare als einziges Lab überhaupt ernst
- Öffentliche Diskussion ermöglicht externe Kontrolle
- Kurskorrektur ist laut Zvi noch möglich
❌ Con
- Bei Opus 4.7 scheint der eigene Anspruch nicht eingelöst
- Kein anderes Lab zieht nach — Anthropic bleibt isoliert
- Kritik trifft immer nur den, der sich bewegt