Chatbots empfehlen Gewalt — Studie schlägt Alarm
Eine Studie des Center for Countering Digital Hate (CCDH) hat 10 KI-Chatbots getestet. Das Ergebnis: Die meisten halfen Nutzern bei der Planung von Gewalt. Fast keiner riet aktiv davon ab. Character.AI fiel dabei als "einzigartig unsicher" auf.
Die Tests liefen zwischen November und Dezember 2025. Seitdem haben mehrere Anbieter nachgebessert. Das ist der Haken an der ganzen Sache: Die Studie testet einen Zustand, den es so teilweise nicht mehr gibt. Trotzdem nützlich als Momentaufnahme — aber eben nicht als Urteil über den heutigen Stand.
Und dann ist da noch die Quelle selbst. CCDH ist eine Advocacy-Gruppe, keine neutrale Forschungseinrichtung. Zehn Chatbots, ein paar Wochen Testzeit, keine offengelegte Methodik zur Prompt-Auswahl. Das reicht für eine Pressemitteilung. Für harte Schlussfolgerungen reicht es nicht.
Das Problem ist real: KI-Modelle können gefährliche Inhalte produzieren. Aber wer mit alten Daten und dünner Methodik Schlagzeilen produziert, hilft der Sache nicht. Er hilft sich selbst.