🚨 KI-CRIME
Unbekannte klauen gefährliche KI von Anthropic
Eine mächtige, unveröffentlichte KI von Anthropic ist offenbar in falsche Hände geraten. Claude Mythos soll Sicherheitslücken aufspüren und Hackerangriffe ermöglichen.
Eine mächtige, unveröffentlichte KI von Anthropic ist offenbar in falsche Hände geraten. Claude Mythos soll Sicherheitslücken aufspüren und Hackerangriffe ermöglichen.
Was passiert ist
Unbekannte haben sich Zugang zu Claude Mythos verschafft. Das ist die interne, experimentelle KI von Anthropic. Das Unternehmen wollte sie wegen ihrer Gefährlichkeit nie veröffentlichen.
💡 Was das bedeutet
Die KI kann Software-Schwachstellen erkennen und ausnutzen. In den Händen von Kriminellen wird sie zur Cyber-Waffe. Jeder ungesicherte Server, jede alte Software wird zum Ziel.
- Modell:** Claude Mythos, interne Forschungs-KI
- Fähigkeit:** Findet und nutzt Sicherheitslücken automatisch
- Status:** Nie veröffentlicht, jetzt gestohlen
- Gefahr:** Macht Hacking massiv einfacher und skalierbar
Die Reaktion von Anthropic
Das Unternehmen bestätigt den Vorfall nicht direkt. Intern heißt es aber: Man untersuche "potenzielle Sicherheitsvorfälle". Ein Sprecher betonte, man nehme Sicherheit "extrem ernst". Das ist wenig beruhigend.
“
Wir veröffentlichen Modelle nur, wenn wir ihre Sicherheit garantieren können.— Anthropic-Sprecher
🤖 NERDMAN-URTEIL
Wenn selbst die Sicherheits-Fanatiker von Anthropic geknackt werden, ist das ein Alarmsignal für die ganze Branche – die nächste Cyber-Welle rollt an.
Quelle: Spiegel Netzwelt
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.