AMD-Direktor rechnet mit Claude Code ab
Anthropics Coding-Tool hat ein Vertrauensproblem. Und diesmal kommt die Kritik nicht von irgendeinem Reddit-Nutzer, sondern von AMDs AI Director persönlich.
Was passiert ist
Der KI-Chef von AMD hat auf GitHub ein Ticket eröffnet — mit einer Aussage, die sitzt: "Claude cannot be trusted to perform complex engineering tasks." Claude Code sei seit dem letzten Update merklich dümmer und fauler geworden. Weniger präzise. Weniger zuverlässig. Kurz: unbrauchbar für ernsthafte Engineering-Arbeit.
Kein Einzelfall
Das Ticket ist kein Solo-Rant. Die Beschwerden häufen sich seit Wochen:
- Qualitätsverlust:** Nutzer berichten, dass Claude Code komplexe Aufgaben abbricht oder halbgar löst
- "Lazy"-Verhalten:** Das Modell kürzt ab, überspringt Schritte, liefert Platzhalter statt Code
- Vertrauenserosion:** Wer jeden Output doppelt prüfen muss, kann sich den Bot auch sparen
Claude cannot be trusted to perform complex engineering tasks.— AMDs AI Director, via GitHub
Was das bedeutet
Wenn ein AMD-Direktor öffentlich sagt, dass er Anthropics Flaggschiff-Tool nicht mehr traut, ist das kein Feedback — das ist ein Warnschuss. Coding-Assistenten leben vom Vertrauen ihrer Power-User. Verlieren sie die Senior Engineers, verlieren sie ihre beste Werbung.
Die unbequeme Frage
Anthropic steht vor einem Dilemma, das alle LLM-Anbieter kennen:
- Kosten senken** → kleinere Modelle, weniger Compute pro Request → Output wird schlechter
- Qualität halten** → teuer, langsam, schwer skalierbar
- Beides versprechen** → genau das passiert gerade
Timeline
- 2024:** Claude Code launcht, Entwickler feiern es als Copilot-Killer
- 2025:** Anthropic pusht aggressive Updates, Community wächst
- 2026:** Beschwerden häufen sich — AMD-Direktor macht sie öffentlich