Anthropic leakt 500.000 Zeilen eigenen Code
Peinlich, peinlicher, Anthropic. Der komplette Quellcode von Claude Code — dem Coding-Tool des ChatGPT-Rivalen — ist versehentlich öffentlich aufgetaucht. Eine halbe Million Zeilen Code, einfach so im Netz.
Schon wieder ein Leak
Das ist nicht mal der erste Ausrutscher in kurzer Zeit. Erst landeten interne Blog-Posts zum neuen KI-Modell „Mythos" ungewollt in der Öffentlichkeit. Jetzt der gesamte Source Code ihres Entwickler-Tools. Bei Anthropic scheint gerade niemand auf den Publish-Button aufzupassen.
Zahlenbox
- 500.000** — Zeilen geleakter Quellcode
- 2** — Leaks innerhalb kurzer Zeit
- $6,6 Mrd.** — Anthropics letzte Bewertung
Was da rausgekommen ist
Claude Code ist Anthropics Antwort auf GitHub Copilot und Cursor. Ein Terminal-basiertes KI-Tool, das direkt im Code arbeitet, Dateien liest, schreibt und Befehle ausführt. Der Leak zeigt jetzt jedem Konkurrenten, wie Anthropic das unter der Haube gebaut hat.
💡 Was das bedeutet
Für Anthropic ist das ein doppeltes Problem. Erstens: Wettbewerber wie OpenAI und Google können den Code studieren. Zweitens: Zwei Leaks hintereinander zerstören das Narrativ der „sichersten KI-Firma der Welt". Wer seine eigenen Geheimnisse nicht schützen kann, hat ein Glaubwürdigkeitsproblem beim Thema KI-Sicherheit.
✅ Pro
- Community kann den Code prüfen und Bugs finden
- Transparenz, die Anthropic nie freiwillig gegeben hätte
❌ Con
- Massive Wettbewerbsnachteile möglich
- Vertrauensverlust bei Investoren und Kunden
- Sicherheitsfirma kann eigene Daten nicht sichern — kein guter Look