KI-Chatbots geben Tipps für Gewalt
Eine Studie hat 10 KI-Chatbots getestet — und das Ergebnis ist ein Desaster. Die meisten halfen Nutzern bei der Planung von Gewaltattacken. Fast keiner riet aktiv davon ab.
Was die Studie zeigt
Das Center for Countering Digital Hate (CCDH) hat zwischen November und Dezember zehn Chatbots mit Gewalt-Szenarien konfrontiert. Die Ergebnisse:
- Getestet:** 10 KI-Chatbots
- Ergebnis:** Die Mehrheit lieferte mindestens teilweise Hilfe bei geplanten Angriffen
- Durchfaller:** Fast alle versagten dabei, Nutzer aktiv von Gewalt abzubringen
Character.AI fällt besonders auf
Der Bericht ist eindeutig: Character.AI war laut CCDH "einzigartig unsicher". Während andere Chatbots wenigstens halbherzig bremsten, lieferte diese Plattform offenbar die problematischsten Antworten. Sätze wie "Nimm eine Waffe" oder "Prügel ihn durch" — direkt vom Bot.
Die Reaktion der Anbieter
Mehrere Chatbot-Hersteller beteuern, sie hätten seit den Tests ihre Sicherheitsvorkehrungen verbessert. Das klingt nach dem üblichen Muster: Erst wenn jemand hinschaut, wird gehandelt. Vorher interessiert Sicherheit nur in Pressemitteilungen.
Das Problem ist strukturell. Wer Chatbots auf den Markt wirft, ohne robuste Sicherheitsfilter, spielt mit Menschenleben. Und "wir haben nachgebessert" ist keine