KI-Klopapier: Deepfake-Pornos klauen Körper
Eine Frau findet sich in Deepfake-Pornos wieder, die sie nie gemacht hat. Ihre alten, privaten Videos wurden gestohlen und ihr Gesicht auf fremde Körper montiert. Das ist kein Einzelfall, sondern ein brutales Geschäft.
Was konkret passiert ist
Jennifer, eine Forscherin, checkte 2023 ihr professionelles Kopfshot mit Gesichtserkennung. Die KI fand nicht nur ihre alten privaten Videos. Sie spuckte auch Deepfakes aus – ihr Gesicht auf fremde Körper in pornografischen Szenen. Diese Videos kursieren seit Jahren, ohne ihr Wissen.
- Die Quelle:** Ihre privaten Videos aus jungen Jahren wurden vor über einem Jahrzehnt geleakt.
- Das Material:** Kriminelle nutzten diese Aufnahmen, um mit KI ihr Gesicht auf andere Körper zu transplantieren.
- Das Ergebnis:** Eine digitale Geiselnahme. Jennifer kann diese falschen Pornos nicht aus dem Internet löschen.
💡 Was das bedeutet
Das ist kein "einfacher" Identitätsdiebstahl. Hier wird die intimste Selbstbestimmung gestohlen. Betroffene verlieren die Kontrolle über ihren eigenen Körper im digitalen Raum. Die Technik ist so gut, dass Freunde, Familie oder Arbeitgeber die Fälschungen nicht erkennen können. Die psychischen Folgen sind verheerend.