Iran nutzte ChatGPT für geheime Propaganda-Operation
OpenAI hat Accounts gesperrt, die zu einer verdeckten iranischen Einflussoperation gehörten. Die Konten nutzten ChatGPT, um massenhaft Inhalte für Websites und Social Media zu produzieren — unter anderem zur US-Präsidentschaftswahl.
Staatliche Trolle mit KI-Turbo
Das Prinzip ist simpel: Statt hunderte Trolle in schlecht beleuchteten Büros tippen zu lassen, lässt man die KI die Propaganda schreiben. Schneller, billiger, in beliebig vielen Sprachen.
- Akteur:** Iranische Einflussoperation, staatlich gesteuert
- Werkzeug:** ChatGPT zur Content-Generierung
- Ziele:** US-Wahlkampf und weitere politische Themen
- Plattformen:** Websites und Social-Media-Kanäle
- Maßnahme:** Accounts von OpenAI gebannt
Viel Aufwand, Null Reichweite
OpenAI betont: Es gibt keine Hinweise, dass die produzierten Inhalte ein nennenswertes Publikum erreicht haben. Die Propaganda verpuffte also im digitalen Nichts. Das ist die gute Nachricht.
Die schlechte: Dass ein Staat systematisch KI-Tools für Desinformation einsetzt, ist kein Einzelfall mehr. Es ist ein Muster. Und beim nächsten Mal klappt es vielleicht mit der Reichweite.
Das eigentliche Problem
OpenAI spielt hier Feuerwehr im eigenen Haus. Das Unternehmen verkauft das Tool, entdeckt den Missbrauch, sperrt die Accounts — und veröffentlicht einen Blogpost darüber. Transparenz ist gut. Aber reaktiv bleibt reaktiv.