Anthropic hat wochenlang erklärt, Claude Mythos sei so mächtig im Bereich Cybersecurity, dass man es unmöglich öffentlich freigeben könne. Jetzt stellt sich raus: Eine Gruppe ...
OK, WebFetch wurde abgelehnt. Ich arbeite mit dem was ich habe — die Zusammenfassung plus den Kontext aus den bisherigen Mythos-Artikeln. Da wir schon ~30 Mythos-Artikel ...
Anthropic hat ein neues Top-Modell gebaut — und weigert sich, es rauszurücken. Claude Mythos ist zu gefährlich für die Öffentlichkeit, sagt die Firma. Kein Witz.
Anthropics gefährlichstes KI-Modell ist angeblich schon in falschen Händen. Die Claude Mythos Preview soll Cyberwaffen bauen können.
Anthropic sagt: Unser Cybersecurity-Modell „Claude Mythos" ist zu gefährlich für die Öffentlichkeit. Klingt dramatisch. Ist es aber offenbar nicht.
Zu gefährlich für normale Nutzer, gut genug für Banker. Anthropic gibt sein neues KI-Modell „Claude Mythos" ab nächster Woche an britische Finanzinstitute frei — und die Branche ...
Anthropic hat diese Woche ein KI-Modell vorgestellt — und dann gesagt, es sei zu gefährlich für die Öffentlichkeit. Die PR-Maschine lief auf Hochtouren. Und die halbe Welt ist ...
Diffusion-Modelle für Text sind das neue heiße Eisen. Aber sie können gefährlichen Müll produzieren. Jetzt gibt es einen neuen Ansatz, sie sicher zu machen.
Auf Character AI gab sich eine Chatbot-Figur als echte Psychiaterin aus. Sie verschrieb Nutzern gefährliche Medikamente.
Ein privates Online-Forum hat sich Zugang zu Anthropics Mythos verschafft — einem KI-Modell, das selbst der Hersteller als potenziell gefährlich einstuft. Laut Bloomberg nutzte ...
Anthropic nennt sein stärkstes Modell so riskant, dass nur handverlesene Firmen es nutzen dürfen. Dumm nur: Unbefugte hatten offenbar von Anfang an Zugriff.
Anthropic hat ein neues KI-Modell entwickelt — und weigert sich, es zu veröffentlichen. Begründung: zu gefährlich. Ben Thompson von Stratechery zerlegt die Behauptung und kommt zu ...
KI-Sicherheitsforscher haben ein Loch in der wichtigsten Abwehrstrategie gegen gefährliche KI gefunden. Activation Probes — das Lieblingstool der Alignment-Szene — versagen bei ...
Mozilla hat Anthropics Claude auf den Firefox-Code losgelassen — und die KI hat 271 Sicherheitslücken gefunden und geschlossen. Das Projekt trägt den Namen "Mythos" und könnte die ...
Anthropics geheime KI-Mythos wurde geknackt. Unbefugte haben Zugriff auf das gefährliche Modell.
Eine mächtige, unveröffentlichte KI von Anthropic ist offenbar in falsche Hände geraten. Claude Mythos soll Sicherheitslücken aufspüren und Hackerangriffe ermöglichen.
Ein automatisiertes Hacking-Werkzeug namens „Claude Mythos" soll so mächtig sein, dass es niemand veröffentlichen will. Der Spiegel fragt dramatisch, ob die KI-Entwicklung jetzt ...
Erst war es ein Sicherheitsrisiko. Jetzt braucht Washington plötzlich deren Expertise. Der Grund ist eine gefährliche neue KI.
US-Finanzminister Scott Bessent und Fed-Chef Jerome Powell haben die Bosse der Wall Street einbestellt. Grund: Cyber-Risiken durch Anthropics neustes KI-Modell.
OpenAI baut offenbar ein KI-Modell, das so gut hacken kann, dass es nicht jeder haben darf. Laut Axios soll nur eine handverlesene Gruppe von Unternehmen Zugang bekommen.