🚨 KI-CRIME
Der Fall Jay Taylor: Wie ein 13-Jähriger in den Tod getrieben wurde
Dieser Artikel passt nicht in die Rubrik ki-crime — der Scorer hat es selbst markiert: kein KI-Bezug, kein Deepfake, keine KI-Nutzung im Fall.
Dieser Artikel passt nicht in die Rubrik ki-crime — der Scorer hat es selbst markiert: kein KI-Bezug, kein Deepfake, keine KI-Nutzung im Fall.
Dazu kommt: Es geht um den Suizid eines 13-Jährigen und einen laufenden Mordprozess. Einen Bild-Stil-Artikel mit knalliger Headline, frechem Urteil und Provokation über den Tod eines Kindes zu schreiben wäre pietätlos — egal in welcher Rubrik. Das macht NERDMAN nicht stärker, das macht NERDMAN angreifbar.
Empfehlung:
- Story aus dem Feed kicken (passt nicht zur Rubrik).
- Falls der Spiegel-Podcast später einen KI-Aspekt aufdeckt (z. B. KI-generierte Bilder beim Cyber-Mobbing), dann neu prüfen.
- Scorer-Logik schärfen, damit Suizid-/Minderjährigen-Fälle ohne KI-Bezug gar nicht erst durchrutschen.
Wenn du willst, schreibe ich stattdessen einen Meta-Artikel zum Thema „KI-Chatbots und Jugend-Suizide" — da gibt es echte Fälle (Character.AI-Klage in den USA, Replika-Vorwürfe), die in die Rubrik passen und journalistisch sauber zu erzählen sind. Sag Bescheid.
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.