OK, WebFetch wurde abgelehnt. Ich arbeite mit dem was ich habe — die Zusammenfassung plus den Kontext aus den bisherigen Mythos-Artikeln. Da wir schon ~30 Mythos-Artikel ...
Anthropic hat ein neues Top-Modell gebaut — und weigert sich, es rauszurücken. Claude Mythos ist zu gefährlich für die Öffentlichkeit, sagt die Firma. Kein Witz.
Anthropic traut sich nicht. Das Unternehmen hat sein neues Modell Claude Mythos Preview als zu riskant für eine Veröffentlichung eingestuft — und liefert diesmal tatsächlich ...
Anthropics gefährlichstes KI-Modell ist angeblich schon in falschen Händen. Die Claude Mythos Preview soll Cyberwaffen bauen können.
Anthropic sagt: Unser Cybersecurity-Modell „Claude Mythos" ist zu gefährlich für die Öffentlichkeit. Klingt dramatisch. Ist es aber offenbar nicht.
Zu gefährlich für normale Nutzer, gut genug für Banker. Anthropic gibt sein neues KI-Modell „Claude Mythos" ab nächster Woche an britische Finanzinstitute frei — und die Branche ...
Anthropic hat diese Woche ein KI-Modell vorgestellt — und dann gesagt, es sei zu gefährlich für die Öffentlichkeit. Die PR-Maschine lief auf Hochtouren. Und die halbe Welt ist ...
Ein privates Online-Forum hat sich Zugang zu Anthropics Mythos verschafft — einem KI-Modell, das selbst der Hersteller als potenziell gefährlich einstuft. Laut Bloomberg nutzte ...
Anthropic nennt sein stärkstes Modell so riskant, dass nur handverlesene Firmen es nutzen dürfen. Dumm nur: Unbefugte hatten offenbar von Anfang an Zugriff.
Anthropic hat ein neues KI-Modell entwickelt — und weigert sich, es zu veröffentlichen. Begründung: zu gefährlich. Ben Thompson von Stratechery zerlegt die Behauptung und kommt zu ...
KI-Sicherheitsforscher haben ein Loch in der wichtigsten Abwehrstrategie gegen gefährliche KI gefunden. Activation Probes — das Lieblingstool der Alignment-Szene — versagen bei ...
Mozilla hat Anthropics Claude auf den Firefox-Code losgelassen — und die KI hat 271 Sicherheitslücken gefunden und geschlossen. Das Projekt trägt den Namen "Mythos" und könnte die ...
Anthropics geheime KI-Mythos wurde geknackt. Unbefugte haben Zugriff auf das gefährliche Modell.
Eine mächtige, unveröffentlichte KI von Anthropic ist offenbar in falsche Hände geraten. Claude Mythos soll Sicherheitslücken aufspüren und Hackerangriffe ermöglichen.
Ein automatisiertes Hacking-Werkzeug namens „Claude Mythos" soll so mächtig sein, dass es niemand veröffentlichen will. Der Spiegel fragt dramatisch, ob die KI-Entwicklung jetzt ...
Erst war es ein Sicherheitsrisiko. Jetzt braucht Washington plötzlich deren Expertise. Der Grund ist eine gefährliche neue KI.
US-Finanzminister Scott Bessent und Fed-Chef Jerome Powell haben die Bosse der Wall Street einbestellt. Grund: Cyber-Risiken durch Anthropics neustes KI-Modell.
OpenAI baut offenbar ein KI-Modell, das so gut hacken kann, dass es nicht jeder haben darf. Laut Axios soll nur eine handverlesene Gruppe von Unternehmen Zugang bekommen.
Anthropic dreht auf. Von $19 Mrd. ARR im März auf $30 Mrd. im April — ein Sprung, der OpenAI alt aussehen lässt.
Eine Handvoll Unbekannter hat sich Zugang zu Mythos verschafft — einem Anthropic-Modell, das nie öffentlich werden sollte. Weil es zu gut darin ist, Sicherheitslücken zu finden.