KI-Deepfakes zerstören Karrieren deutscher Frauen
Collien Fernandes wurde jahrelang Opfer sexualisierter Deepfakes. Die Bilder kursierten nicht nur im Netz — sondern offenbar auch in ihrem direkten beruflichen Umfeld.
Was passiert ist
Unbekannte erstellten mit KI-Tools gefälschte sexualisierte Bilder der Moderatorin und Schauspielerin. Über Jahre hinweg wurden diese Deepfakes verbreitet. Kolleginnen und Kollegen bekamen das Material zu sehen — ein Albtraum am Arbeitsplatz.
Die Angst der Betroffenen
Eine große Angst von Betroffenen ist es, gekündigt zu werden.— Judith Strieder, NGO Hate Aid
Das ist der eigentliche Skandal. Nicht die Täter fürchten Konsequenzen — die Opfer tun es. Wer sexualisierte Deepfakes von sich entdeckt, schweigt oft aus Scham und Existenzangst.
💡 Was das bedeutet
Digitale sexuelle Gewalt ist längst kein Promi-Problem mehr. Jede Frau mit einem öffentlichen Foto kann zum Ziel werden. Und am Arbeitsplatz fehlen Strukturen, die Betroffene schützen statt bestrafen.
Was Vorgesetzte tun müssen
- Glauben.** Nicht hinterfragen, ob die Bilder "echt aussehen"
- Schützen.** Betroffene nicht isolieren, sondern aktiv unterstützen
- Handeln.** Juristische Schritte ermöglichen, nicht blockieren
- Klären.** Teams sensibilisieren, bevor es passiert
✅ Pro
- Der Fall Fernandes macht das Thema endlich sichtbar
- Organisationen wie Hate Aid bieten konkrete Hilfe
- Die öffentliche Debatte wächst
❌ Con
- Deepfake-Tools werden täglich besser und billiger
- Deutsche Gesetze hinken der Technik hinterher
- Arbeitgeber haben keine verbindlichen Leitlinien