EU verbietet Nackt-Apps — und verschiebt den Rest
Das EU-Parlament hat abgestimmt: Nudify-Apps sollen verboten werden. Gleichzeitig bekommen Unternehmen drei Jahre mehr Zeit für die schärfsten KI-Regeln.
Was konkret passiert ist
Eine große Mehrheit der Abgeordneten hat zwei Dinge gleichzeitig beschlossen. Erstens: Apps, die per Deepfake Nacktbilder von echten Personen erzeugen, werden explizit verboten. Zweitens: Die Compliance-Fristen für Hochrisiko-KI-Systeme rutschen auf Dezember 2027.
Zahlenbox
- Dezember 2027** — neue Deadline für Hochrisiko-KI-Compliance
- 3 Jahre** — zusätzliche Schonfrist für Entwickler
- Große Mehrheit** — im EU-Parlament für beide Maßnahmen
Was verboten wird
Nudify-Apps nutzen KI, um aus normalen Fotos täuschend echte Nacktbilder zu generieren. Opfer sind fast ausschließlich Frauen und Minderjährige. Die EU stuft das jetzt als klaren Missbrauch ein — nicht als Grauzone, nicht als Kavaliersdelikt.
✅ Pro
- Erstes explizites Verbot von Nudify-Apps weltweit
- Klares Signal gegen bildbasierten Missbrauch
- Breite parlamentarische Mehrheit zeigt Konsens
❌ Con
- Durchsetzung gegen anonyme App-Betreiber bleibt unklar
- Hochrisiko-Regeln kommen erst 2027 — das ist ewig in KI-Jahren
- Unternehmen bekommen genau die Verzögerung, die sie wollten
💡 Was das bedeutet
Die EU macht beim Opferschutz Ernst, gibt der Industrie aber gleichzeitig massiv Luft. Wer Hochrisiko-KI baut — Medizin, Justiz, kritische Infrastruktur — muss sich erst in drei Jahren an die strengsten Regeln halten. Drei Jahre, in denen diese Systeme trotzdem auf echte Menschen losgelassen werden.