KI-Bots machen Nacktbilder-Missbrauch zum Massengeschäft
Nudifying-Bots, Deepfake-Generatoren, automatisierte Archive — auf Telegram läuft eine industrielle Missbrauchsmaschine. Eine neue Studie hat 2,8 Millionen Nachrichten aus italienischen und spanischen Telegram-Gruppen analysiert. Das Ergebnis ist so erschreckend wie eindeutig.
Die Zahlen
- 2,8 Mio.** — analysierte Telegram-Nachrichten
- 2 Länder** — Italien und Spanien im Fokus
- 3 Säulen** — Nudifying-Bots, Deepfakes, automatisierte Bild-Archive
Wie das System funktioniert
KI-Werkzeuge haben geschlechtsspezifische Gewalt vom Einzeltäter-Delikt zum skalierbaren Geschäftsmodell gemacht. Nutzer laden ein normales Foto hoch, ein Bot generiert per KI ein Nacktbild. Fertig. Kein technisches Wissen nötig, keine Hürde, kein Gewissen.
Die Telegram-Gruppen sind keine dunklen Ecken mehr. Sie sind monetarisierte Ökosysteme mit Abo-Modellen, Premium-Bots und automatisierten Archiven, die das Material katalogisieren und durchsuchbar machen.
💡 Was das bedeutet
Das ist kein Randphänomen von ein paar Creeps. Das ist eine Industrie. KI hat die Produktionskosten für bildbasierte sexuelle Gewalt auf null gedrückt. Jedes Foto auf Instagram, TikTok oder WhatsApp kann zum Ausgangsmaterial werden — ohne Wissen, ohne Zustimmung der Betroffenen.
Pro (für Strafverfolgung)
- Studie liefert erstmals harte Daten statt Anekdoten
- Telegram-Gruppen sind identifizierbar und dokumentiert
- Muster sind klar genug für gezielte Regulierung
Con (für Betroffene)
- Telegram reagiert notorisch langsam auf Löschanfragen
- Bot-Betreiber wechseln in Minuten den Kanal
- Einmal generiertes Material ist nicht mehr einfangbar
Wo die Politik versagt
Die EU hat den AI Act verabschiedet, aber Nudifying-Bots fallen in eine Grauzone. Die Betreiber sitzen oft außerhalb der EU-Jurisdiktion. Telegram kooperiert bekanntlich ungern mit Behörden. Solange die Plattform nicht gezwungen wird, diese Bots sofort zu sperren, bleibt jede Regulierung Papier.