🔥 HOT NEWS
Claude Opus 4.7 spaltet die KI-Community
Anthropic hat sein neues Flaggschiff-Modell rausgehauen. Die Reaktionen? Durchwachsen wie ein deutsches Aprilwetter.
Anthropic hat sein neues Flaggschiff-Modell rausgehauen. Die Reaktionen? Durchwachsen wie ein deutsches Aprilwetter.
Was drinsteckt
Claude Opus 4.7 liefert beim Coding ab — da sind sich fast alle einig. Viele Power-User, darunter Zvi Mowshowitz selbst, haben sofort umgestellt. Das Modell ist schlau. Keine Frage.
Wo es knirscht
Aber dann wird's hässlich:
- Persönlichkeit:** Vielen Nutzern ist das Modell zu eigenwillig
- Instruktionstreue:** Opus 4.7 weigert sich manchmal, Anweisungen zu befolgen
- Adaptive Thinking:** Pflicht-Feature, das nicht jedem schmeckt
- Bugs:** Release mit Kinderkrankheiten — seltsame Refusals inklusive
- Umgangston:** Das Modell hat wenig Geduld mit schlechten Prompts
✅ Pro
- Coding-Performance auf Top-Niveau
- Intelligenz spürbar gestiegen
- Viele Nutzer wechseln freiwillig als Daily Driver
❌ Con
- Eigensinnige Persönlichkeit nervt
- Folgt nicht immer den Instruktionen
- Bugs und unnötige Refusals beim Launch
- Adaptive Thinking als Zwang
💡 Was das bedeutet
Ein KI-Modell, das zu schlau für seine eigenen Nutzer ist — das ist neu. Wenn ein Modell anfängt, Idioten und Arschlöcher zu erkennen und anders zu behandeln, wirft das echte Fragen auf. Nicht über die KI. Über die Nutzer.
Der Elefant im Raum
Anthropic verkauft Sicherheit als Markenzeichen. Aber ein Modell, das bei simplen Anfragen mauert, während es bei Coding-Tasks brilliert? Das ist kein Safety-Feature. Das ist ein UX-Problem.
🤖 NERDMAN-URTEIL
Opus 4.7 ist der hochbegabte Praktikant, der besseren Code schreibt als du — aber dir dabei ins Gesicht sagt, dass dein Prompt Müll ist.
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.