Anthropic gibt zu: Wir haben Claude dümmer gemacht
Anthropic hat es offiziell bestätigt: Claude wurde in den letzten Wochen tatsächlich schlechter. Nutzer hatten sich massenhaft beschwert — und sie hatten Recht.
Was passiert ist
Systemänderungen und Bugs haben sich überlagert. Das Ergebnis: Claude lieferte spürbar schlechtere Antworten. Wer in den letzten vier Wochen dachte, das Modell sei abgestürzt, lag nicht falsch.
Anthropic wollte Claude eigentlich verbessern. Stattdessen haben sie ihn kaputt-optimiert.
Die Fakten
- Problem:** Qualitätseinbruch bei Claude über mehrere Wochen
- Ursache:** Überlappende Systemänderungen plus Bugs
- Erkennung:** Nutzer-Beschwerden, nicht interne Tests
- Reaktion:** Anthropic bestätigt den Fehler öffentlich
💡 Was das bedeutet
Wenn selbst der Hersteller nicht merkt, dass sein Modell schlechter wird, hat das Qualitätsmanagement ein ernstes Problem. Die Nutzer waren das Frühwarnsystem — nicht die eigenen Benchmarks. Das wirft Fragen auf, wie Anthropic Änderungen an Claude testet, bevor sie live gehen.
✅ Pro
- Anthropic gibt den Fehler offen zu
- Kein PR-Geschwurbel, klares Statement
- Fix soll bereits umgesetzt sein
❌ Con
- Wochen bis zur Erkennung — viel zu lang
- Nutzer mussten Alarm schlagen, nicht interne QA
- Vertrauen in stabile Modell-Qualität angeknackst
Der Elefant im Raum
Das Problem kennt jeder, der KI-Tools produktiv nutzt: Du verlässt dich auf ein Modell, und plötzlich liefert es Müll. Ohne Changelog, ohne Warnung. Anthropic ist nicht die erste Firma, der das passiert — OpenAI hatte dieselbe Debatte um GPT-4 im Sommer 2023. Aber es zeigt: „Wir machen es besser" kann schnell heißen „Wir machen es kaputt."