Deepfake-Pornos von Kollegin — und alle schauen weg
Moderatorin Collien Fernandes wurde jahrelang Opfer sexualisierter Deepfakes. Die KI-generierten Bilder kursierten nicht nur im Netz — sondern offenbar auch in ihrem direkten beruflichen Umfeld.
Was passiert ist
Unbekannte erstellten mit KI-Tools gefälschte Nacktbilder von Fernandes und verbreiteten sie über Jahre. Das Material landete nicht in irgendeiner dunklen Ecke des Internets. Es wurde im Arbeitsumfeld der Moderatorin geteilt. Kollegen wussten Bescheid. Geholfen hat offenbar niemand.
Das Schweige-Problem
Die NGO HateAid kennt das Muster. Judith Strieder von der Organisation erklärt: Betroffene Frauen melden solche Vorfälle am Arbeitsplatz fast nie. Der Grund ist brutal einfach.
Eine große Angst von Betroffenen ist es, gekündigt zu werden.— Judith Strieder, HateAid
Wer als Opfer sichtbar wird, riskiert den Job. Nicht die Täter haben Angst — die Opfer.
Die Zahlen dahinter
- 96%** aller Deepfake-Videos im Netz sind pornografisch
- 99%** der Opfer sind Frauen
- 0** — so viele spezifische Gesetze gegen Deepfake-Pornos gibt es in Deutschland aktuell
- Minuten** — so lange brauchen aktuelle KI-Tools für ein realistisches Fake-Bild
Was das bedeutet
Das ist kein Promi-Problem. Jede Frau mit Foto im Firmen-Intranet ist potenzielles Ziel. Die Tools sind kostenlos, die Ergebnisse fotorealistisch, die Strafverfolgung quasi nicht existent. Unternehmen brauchen klare Protokolle: Wer Deepfakes von Kolleginnen teilt, fliegt. Nicht das Opfer.
Was Vorgesetzte tun müssen
- Klare Haltung:** Deepfakes sind digitale sexuelle Gewalt, kein Kavaliersdelikt
- Meldeweg schaffen:** Anonyme Anlaufstelle, keine Nachteile für Betroffene
- Täter sanktionieren:** Wer solches Material teilt oder konsumiert, wird arbeitsrechtlich belangt
- Beweise sichern:** Screenshots, Timestamps, dann Anzeige unterstützen