Anthropic fordert Urheberrecht — und bricht es selbst
Massiver Code-Leak bei Anthropic. Das Unternehmen will jetzt Kopien löschen lassen und beruft sich aufs Urheberrecht. Problem: Anthropic soll selbst massenhaft geschützte Werke fürs Training genutzt haben.
Die Doppelmoral
Anthropic zieht die Urheberrechts-Karte. Kopien ihres geleakten Codes sollen verschwinden. Gleichzeitig steht der KI-Konzern selbst unter Verdacht, urheberrechtlich geschützte Werke in großem Stil fürs Modell-Training verwendet zu haben.
Das ist, als würde ein Einbrecher die Polizei rufen, weil jemand sein Diebesgut geklaut hat.
Was konkret passiert ist
- Der Leak:** Interner Code von Anthropic ist öffentlich aufgetaucht
- Die Reaktion:** Anthropic fordert Löschung — mit Verweis auf eigenes Urheberrecht
- Der Vorwurf:** Anthropic selbst soll geschützte Werke für KI-Training genutzt haben
- Die Kritik:** Branche und Öffentlichkeit sehen massive Doppelmoral
💡 Was das bedeutet
Anthropic positioniert sich gerne als die "ethische" KI-Firma. Wer aber Urheberrecht nur dann ernst nimmt, wenn es dem eigenen Geschäft dient, verliert genau diesen Ruf. Der Fall zeigt ein Grundproblem der gesamten Branche: Alle großen KI-Firmen trainieren mit fremden Daten — und schreien erst dann "Copyright", wenn es um ihre eigenen geht.
✅ Pro
- Anthropic hat formal das Recht, Löschung zu fordern
- Leaks können Sicherheitsrisiken bergen
❌ Con
- Glaubwürdigkeit ist im Eimer, wenn man selbst kopiert
- Setzt einen gefährlichen Präzedenzfall für die ganze Branche
- Untergräbt Anthropics "Safety first"-Image