Forscherin erfindet Krankheit — und ChatGPT glaubt's
Eine schwedische Forscherin hat KI-Chatbots eine Augenkrankheit angedreht, die nicht existiert. Der Name: „Bixonimanie". Die Bots warnten Nutzer brav davor — als wäre sie real.
So lief der Trick
Die Forscherin fütterte das Internet gezielt mit Fake-Inhalten über die erfundene Krankheit. KI-Chatbots crawlen solche Quellen, fressen alles und fragen nicht nach. Ergebnis: Die Bots gaben die Fake-Diagnose als medizinischen Fakt weiter.
Was das bedeutet
Wer heute einen KI-Chatbot nach Gesundheitsthemen fragt, vertraut einer Maschine, die nicht zwischen Wahrheit und Müll unterscheiden kann. Eine einzelne Person mit etwas SEO-Wissen reicht aus, um Millionen Nutzer mit erfundenen Krankheiten zu verunsichern. Das ist kein theoretisches Risiko — das ist ein dokumentierter Beweis.
Pro (des Experiments)
- Zeigt glasklar die Schwachstelle von LLMs
- Kontrolliertes Forschungssetting, kein echter Schaden
- Liefert Munition für bessere Regulierung
Con (für uns alle)
- Kriminelle können denselben Trick nutzen
- Fake-Medizin über KI verbreiten ist lächerlich einfach
- Kein Chatbot-Anbieter hat den Fake erkannt
Die unbequeme Frage
Wenn eine Forscherin mit einer erfundenen Augenkrankheit durchkommt — was passiert, wenn jemand mit echtem Budget und böser Absicht dasselbe macht? Fake-Medikamente bewerben, Panik auslösen, Produkte pushen. Die Infrastruktur dafür steht. Sie heißt ChatGPT, Gemini, Copilot.