OpenAI sperrt Propaganda-Accounts — Wirkung gleich null
Staatliche Akteure nutzen ChatGPT für verdeckte Einflussoperationen. OpenAI hat die Accounts gesperrt. Und gibt zu: Gebracht hat es den Propagandisten wenig.
Was passiert ist
OpenAI hat Accounts identifiziert und abgeschaltet, die mit verdeckten Einflussoperationen in Verbindung standen. Gemeint sind staatlich gelenkte Kampagnen, die mit KI-generierten Texten Meinungen manipulieren wollten.
Die Kernaussage von OpenAI selbst: Keiner dieser Akteure konnte durch die Nutzung von OpenAI-Diensten seine Reichweite nennenswert steigern.
Was das heißt
- Betroffene:** Mehrere verdeckte Operationen aus verschiedenen Ländern
- Methode:** KI-generierte Texte für Social-Media-Propaganda
- Ergebnis laut OpenAI:** Kein messbarer Reichweiten-Zuwachs
- Konsequenz:** Accounts terminiert
Die unbequeme Frage
OpenAI klopft sich auf die Schulter. Aber der Bericht zeigt vor allem eins: Die Werkzeuge werden bereits aktiv für Desinformation genutzt. Dass die Kampagnen diesmal nicht gezündet haben, ist kein Verdienst der Technik — sondern Glück.
Wer garantiert, dass die nächste Operation genauso stümperhaft läuft? Niemand.