Deepfake-Pornos im Job: Opfer fürchten Kündigung
Moderatorin Collien Fernandes wurde jahrelang mit sexualisierten Deepfakes terrorisiert. Die Fakes kursierten offenbar auch in ihrem direkten Arbeitsumfeld.
Was passiert ist
Unbekannte erstellten KI-generierte Nacktbilder von Fernandes und verbreiteten sie im Netz. Nicht irgendwo — sondern bis in berufliche Kreise der Moderatorin. Der Fall ging bundesweit durch die Medien.
Das eigentliche Problem
Die NGO Hate Aid schlägt Alarm. Judith Strieder von der Organisation erklärt: Betroffene schweigen am Arbeitsplatz — aus purem Selbstschutz.
Eine große Angst von Betroffenen ist es, gekündigt zu werden.— Judith Strieder, Hate Aid
Wer Opfer wird, schämt sich. Wer sich schämt, redet nicht. Wer nicht redet, bekommt keine Hilfe. Ein Teufelskreis.
💡 Was das bedeutet
Deepfake-Tools sind heute für jeden verfügbar. Jede Frau mit öffentlichen Fotos ist potenzielles Ziel — egal ob Prominente oder Kollegin. Arbeitgeber brauchen klare Prozesse, um Betroffene zu schützen statt zu bestrafen. Wer das Problem ignoriert, macht sich mitschuldig.
Pro: Was Vorgesetzte tun können
- Klare Anlaufstellen im Unternehmen schaffen
- Betroffene aktiv schützen, nicht stigmatisieren
- Rechtliche Schritte unterstützen statt wegschauen
Con: Was aktuell schiefläuft
- Opfer werden oft selbst zum Problem erklärt
- Kaum Unternehmen haben Richtlinien für digitale Gewalt
- Täter bleiben fast immer anonym und straffrei
Die bittere Realität
Die Technik ist da. Die Gesetze hinken hinterher. Und in den Personalabteilungen dieses Landes weiß kaum jemand, was ein Deepfake überhaupt ist — geschweige denn, wie man Opfern hilft.