Frankreichs Nationale Agentur für "sichere Dokumente" (ANTS) hat ein Datenleck bestätigt. Kriminelle in Untergrundforen behaupten, sie hätten die Identitätsdaten eines Drittels ...
OpenAI hat sein Agents SDK aktualisiert. Neuer Fokus: Sicherheit und schnelleres Deployment.
Microsoft hat Entwickler-Accounts mehrerer hochkarätiger Open-Source-Projekte gesperrt. Ohne Ankündigung, ohne Erklärung, ohne schnellen Weg zurück.
Neue Studie, alte Leier: KI-Chatbots werden nicht sicherer, sondern hinterhältiger. Sicherheitsforscher haben nachgewiesen, dass aktuelle Modelle häufiger lügen, täuschen und ...
Der Schweizer Messenger TeleGuard wirbt mit der „weltbesten Verschlüsselung". Sicherheitsforscher haben genau diese Verschlüsselung aufgebrochen — und TeleGuard tut so, als wäre ...
Das Bundesamt für Sicherheit in der Informationstechnik schlägt Alarm: Angreifer übernehmen systematisch Signal-Accounts — und die meisten Opfer merken es zu spät.
Passwort sicher? MFA aktiv? Juckt „Storm" nicht. Der neue Infostealer klaut Browser-Daten und entschlüsselt sie erst auf den Servern der Angreifer — ein Trick, der klassische ...
Diffusion-Sprachmodelle wie LLaDA gelten als neue Generation der Textgenerierung. Ein Forscherteam hat jetzt gezeigt: Ihre Sicherheitsmechanismen sind ein Witz.
Ausgerechnet jetzt. Anthropic, das KI-Lab mit der 60-Milliarden-Dollar-Bewertung, hat den Quellcode von Claude Code versehentlich öffentlich gemacht. Mitten in der heißen ...
Google-Partner Tenex.ai hat eine fette Finanzierungsrunde über 250 Millionen Dollar abgeschlossen. Das Geld fließt in KI-basierte Security-Services.
Anthropic hat ein echtes Nervproblem gelöst. Wer Claude Code bisher nutzte, musste entweder jeden einzelnen Befehl abnicken — oder gleich alle Sicherheitschecks abschalten. Der ...
Eine Geschworenen-Jury in New Mexico hat geurteilt: Meta hat gegen Verbraucherschutzgesetze verstoßen. Der Vorwurf: Der Konzern hat Teenager über die Sicherheit seiner Plattformen ...
Ein anonymer Whistleblower erhebt schwere Vorwürfe gegen das Compliance-Startup Delve: Das Unternehmen soll Hunderte Kunden mit gefälschten Zertifizierungen in falsche Sicherheit ...
OpenAI, Anthropic, Google und Microsoft tun sich zusammen. Das Frontier Model Forum bekommt einen neuen Chef — und einen 10-Millionen-Dollar-Fonds für AI Safety.
Eine Handvoll Unbekannter hat sich Zugang zu Mythos verschafft — einem Anthropic-Modell, das nie öffentlich werden sollte. Weil es zu gut darin ist, Sicherheitslücken zu finden.
Eine mächtige, unveröffentlichte KI von Anthropic ist offenbar in falsche Hände geraten. Claude Mythos soll Sicherheitslücken aufspüren und Hackerangriffe ermöglichen.
Anthropic hat ein Problem. Unbefugte verschaffen sich Zugang zu „Mythos" — einem Modell, das offenbar nicht für die Öffentlichkeit bestimmt war.
Neue Forschung zeigt: Wenn große Sprachmodelle „laut denken", folgen sie dabei schlecht Anweisungen. Ihre Antworten? Die lassen sich problemlos steuern. Ihr Denkprozess? Nicht so ...
Anthropic lässt neun autonome Claude-Agenten ein offenes Alignment-Problem lösen. Die KI schlägt die Menschen. Aber sie trickst auch.
Sicherheitsforscher haben Apple Intelligence mit simplen Prompt Injections ausgehebelt. Die angeblich so sicheren Guardrails? Löchrig wie Schweizer Käse.