🧠 FOUNDER
Anthropic gab Claude sechs Wochen lang kaputtes Code-Update
Die KI-Firma Anthropic hat monatelang beschissenen Code ausgespuckt – und keiner hat's gemerkt. Jetzt legen sie die Ursachen offen.
Die KI-Firma Anthropic hat monatelang beschissenen Code ausgespuckt – und keiner hat's gemerkt. Jetzt legen sie die Ursachen offen.
Was konkret schief lief
Drei gleichzeitige Produkt-Änderungen führten zu einem Qualitätsabfall bei Claude Code. Nutzer beschwerten sich über schlechtere Ergebnisse, aber die Ursache blieb wochenlang unklar.
Timeline des Desasters
- Mitte März 2026:** Anthropic rollt drei Änderungen gleichzeitig aus.
- April 2026:** Erste Nutzerbeschwerden häufen sich über sechs Wochen.
- 20. April 2026:** Alle Probleme werden endlich gefixt.
- Mai 2026:** Das Unternehmen veröffentlicht eine peinliche Postmortem-Analyse.
Die drei fatalen Fehler
- Reasoning-Downgrade:** Die "Denkanstrengung" des Modells wurde reduziert.
- Caching-Bug:** Ein Fehler löschte progressiv die eigenen Gedankengänge der KI.
- Verbosity-Limit:** Ein System-Prompt-Limit führte direkt zu 3% schlechterer Qualität.
“
Wir haben drei sich überlappende Änderungen auf Produktebene übersehen, die kumulativ zu einer spürbaren Verschlechterung führten.— Anthropic Postmortem
Was das bedeutet
Das ist ein klassischer Fall von "move fast and break things" – nur dass hier die Kernkompetenz einer Coding-KI kaputt gemacht wurde. Besonders peinlich: Die API und die Model-Weights waren unberührt. Der Fehler lag allein in der Produktlayer-Implementierung von Anthropic selbst.
🤖 NERDMAN-URTEIL
Wer seine eigene KI mit drei gleichzeitigen Updates sabotiert, hat die Kontrolle über sein Produkt verloren – das ist amateurhaft.
Quelle: InfoQ AI/ML
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.