Fake Soldatinnen verdienen echtes Geld
Sexy Frauen in Uniform, patriotische Posen, emotionale Kriegsszenen — alles KI-generiert. Content Creator bauen komplette Fake-Personen und verdienen damit Geld, während sie nebenbei Propaganda verbreiten.
Das Schema
KI-Forscher haben ein wachsendes Netzwerk aus gefälschten Online-Persönlichkeiten dokumentiert. Die Masche: Sexualisierte Bilder von Frauen in Militär-Kleidung werden per KI erzeugt und auf Social Media gestreut. Die Accounts sammeln Follower, Klicks und Werbeeinnahmen.
Aber es geht nicht nur um Geld. Die Bilder transportieren politische Botschaften — oft pro-militärisch, oft nationalistisch. Und das Perfide: Selbst wer weiß, dass es Fakes sind, wird emotional beeinflusst.
They feel true.— Titel der Studie, The Guardian
Warum das funktioniert
- Emotion schlägt Fakten:** Das Gehirn reagiert auf das Bild, bevor der Verstand "Fake" sagt
- Sexualisierung als Klick-Köder:** Attraktive Frauen in Uniform generieren massiv Engagement
- Plattformen schauen weg:** Solange kein realer Mensch kopiert wird, greifen wenige Regeln
- Skalierbarkeit:** Ein Prompt, hundert Bilder, null Kosten
💡 Was das bedeutet
Das Problem ist nicht mehr nur der eine Deepfake von einem Politiker. Es ist eine ganze Industrie aus erfundenen Menschen, die nie existiert haben — und trotzdem politische Meinungen formen. Die Grenze zwischen Content Creation und Propaganda löst sich auf.
✅ Pro
- Forscher decken die Methoden auf
- Öffentliches Bewusstsein für Deepfakes steigt
❌ Con
- Keine Gesetze gegen erfundene Personen
- Plattformen haben kein Erkennungssystem
- Emotionale Wirkung bleibt — auch nach Entlarvung