EU verbietet KI-Software für sexualisierte Deepfakes
Das EU-Parlament hat abgestimmt: Dienste, die per KI sexualisierte Bilder und Videos erzeugen, sollen verboten werden. Und ja — das könnte auch Elon Musks KI treffen.
Was konkret passiert ist
Die Abgeordneten in Straßburg haben für eine Regulierung gestimmt, die gezielt gegen Deepfake-Tools vorgeht. Im Fokus: Software, die sexualisierte Inhalte von echten Personen generiert — oft ohne deren Wissen oder Zustimmung. Besonders brisant: Auch Material, das Minderjährige betrifft, soll so bekämpft werden.
Warum Musks KI ein Problem hat
Die Regulierung zielt nicht nur auf obskure Darknet-Tools. Auch kommerzielle KI-Systeme, die solche Inhalte erzeugen können, fallen potenziell unter das Verbot. Musks Grok-Modell hat in der Vergangenheit weniger Filter bei Bild-Generierung eingesetzt als die Konkurrenz. Wenn die Regeln greifen, muss xAI nachrüsten — oder zahlen.
💡 Was das bedeutet
Europa macht Ernst bei KI-Missbrauch. Statt endloser Ethik-Debatten gibt es jetzt eine konkrete Abstimmung mit konkreten Konsequenzen. Für Opfer von Deepfake-Pornografie — überwiegend Frauen und Minderjährige — ist das ein längst überfälliger Schutz.
✅ Pro
- Klares Signal gegen KI-generierten Missbrauch
- Schützt Minderjährige vor synthetischem CSAM
- Trifft auch Big-Tech-Anbieter, nicht nur Nischen-Tools
❌ Con
- Vom Gesetz zur Durchsetzung ist es ein weiter Weg
- Open-Source-Modelle lassen sich kaum regulieren
- Täter weichen auf Server außerhalb der EU aus
Der blinde Fleck
Verbote sind gut. Aber die meisten Deepfake-Tools laufen lokal auf Laptops, mit frei verfügbaren Modellen. Kein EU-Gesetz kann eine .safetensors-Datei auf einer Festplatte in Wladiwostok löschen. Die eigentliche Frage bleibt: Wie willst du Technik regulieren, die jeder mit einer Grafikkarte nutzen kann?