🚨 KI-CRIME
Ihr Gesicht, ihr Körper – aber nicht ihr Video
Eine Frau findet sich in KI-Pornos wieder, die sie nie gedreht hat. Deepfake-Technologie macht Betrug zum Alltag.
Eine Frau findet sich in KI-Pornos wieder, die sie nie gedreht hat. Deepfake-Technologie macht Betrug zum Alltag.
Jennifer wollte nur ihre Vergangenheit checken. 2023 ließ sie ihr neues Bewerbungsfoto durch eine Gesichtserkennung laufen. Sie suchte nach alten Porno-Videos aus ihren Zwanzigern, die sie selbst gedreht hatte. Die KI fand die alten Clips. Und etwas Entsetzliches.
“
„Zuerst dachte ich, es sei einfach eine andere Person. Dann habe ich meine Tattoos auf dem Körper erkannt. Es war mein Körper. Mit dem Gesicht einer Fremden.“— Jennifer, Opfer von Deepfake-Pornografie
💡 Was das bedeutet
Die Tools zum Erstellen täuschend echter Fake-Videos sind für jeden zugänglich. Opfer haben kaum rechtliche Handhabe. Es ist kein Angriff auf Promis mehr, sondern auf ganz normale Menschen.
Timeline des Grauens
- 2023:** Jennifer entdeckt den ersten Deepfake mit ihrem Körper.
- 2024:** Sie findet Dutzende weitere Videos auf verschiedenen Plattformen.
- Heute:** Ein endloser Kampf gegen Uploads auf Piratenseiten. Das Internet vergisst nichts.
🤖 NERDMAN-URTEIL
Ein widerliches Verbrechen, bei dem die Täter fast immer straffrei ausgehen – die Tech-Konzerne und Gesetzgeber schauen weg.
Quelle: MIT Technology Review
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.