Deepfake-Opfer Fernandes — Netz verteidigt Täter
Collien Fernandes wurde Opfer sexualisierter Deepfakes. Doch statt Empörung über die Tat kommt Empörung über die Empörung.
Was passiert ist
Unbekannte haben mit KI gefälschte Nacktbilder der Moderatorin erstellt und verbreitet. Ohne ihre Zustimmung. Ohne jede Grundlage. Der Fall wurde öffentlich — und dann wurde es erst richtig hässlich.
Die Reaktionen sind das eigentliche Problem
In Kommentarspalten und sozialen Medien verteidigen Menschen ihr angebliches "Recht", solche Bilder zu erstellen. Die Argumente:
- "Ist doch nur KI"** — als ob digitale Gewalt keine echte Gewalt wäre
- "Selber schuld, wer prominent ist"** — klassische Täter-Opfer-Umkehr
- "Man wird ja wohl noch fantasieren dürfen"** — Fantasie braucht kein Bild, das man verbreitet
Alte Machtansprüche im neuen Gewand. Wer so argumentiert, hat das Konzept Zustimmung nicht verstanden. Oder will es nicht verstehen.
💡 Was das bedeutet
Deepfakes sind kein Nischenproblem mehr. Die Werkzeuge sind frei verfügbar, die Hemmschwelle sinkt, und ein relevanter Teil der Öffentlichkeit sieht kein Problem darin. Das betrifft nicht nur Prominente — jede Person mit einem Foto im Netz ist potenziell betroffen. Deutschland hat noch kein spezifisches Deepfake-Gesetz.
📅 Timeline
- 2017:** Erste Deepfake-Pornos tauchen auf Reddit auf
- 2023:** Tools werden so einfach, dass jeder Laie Fakes erstellen kann
- 2024:** EU AI Act erwähnt Deepfakes, bleibt aber vage
- 2026:** Fall Fernandes zeigt — gesellschaftlich hat sich wenig geändert
Kein Kavaliersdelikt
Sexualisierte Deepfakes sind digitale Gewalt. Punkt. Wer ohne Einwilligung solche Bilder erstellt, greift in die sexuelle Selbstbestimmung einer Person ein. Dass das erklärt werden muss, ist Teil des Problems.