Erfundene Krankheit narrt ChatGPT und Co.
Eine Forscherin denkt sich eine Hautkrankheit aus. Kurz darauf spucken KI-Chatbots die Fake-Diagnose als medizinische Tatsache aus.
Was passiert ist
Die Krankheit heißt „Bixonimania". Sie existiert nicht. Keine Symptome, keine Patienten, keine Studie. Trotzdem reichte es, den Begriff im Netz zu platzieren — und mehrere KI-Systeme übernahmen ihn als anerkannte Diagnose.
Der Faktencheck
- Bixonimania:** Komplett erfunden, null wissenschaftliche Grundlage
- Reaktion der KIs:** Mehrere Chatbots präsentierten die Krankheit als real
- Kontext:** Kein System hat nachgefragt, gewarnt oder Zweifel geäußert
- Methode:** Klassischer Vergiftungstest — Fake-Info rein, schauen was rauskommt
Was die KI hätte sagen müssen
Zu dieser Erkrankung existieren keine peer-reviewten Studien.
Stattdessen: Volle Überzeugung. Detaillierte Beschreibungen einer Krankheit, die es nicht gibt. Als wäre Wikipedia-Rauschen gleichbedeutend mit medizinischem Wissen.
💡 Was das bedeutet
Wer heute eine KI nach Symptomen fragt, bekommt Antworten mit dem Selbstbewusstsein eines Facharztes — aber ohne dessen Ausbildung. Wenn ein erfundener Begriff reicht, um als Diagnose durchzugehen, ist jede medizinische KI-Antwort ohne Quellenprüfung wertlos. Das ist kein Randproblem. Das betrifft Millionen Nutzer, die Google durch ChatGPT ersetzt haben.
✅ Pro
- Das Experiment zeigt glasklar die Schwäche aktueller Modelle
- Einfach reproduzierbar, wissenschaftlich sauber
❌ Con
- Kein einziges getestetes System hat den Test bestanden
- Die Hersteller verkaufen ihre Tools trotzdem für den Gesundheitsbereich