🧪 EXPERIMENTAL
KI-Chatbots warnen vor erfundener Augenkrankheit
Eine schwedische Forscherin hat bewiesen: KI-Systeme lassen sich leicht austricksen. Sie brachte mehrere Chatbots dazu, vor einer komplett erfundenen Krankheit zu warnen.
Eine schwedische Forscherin hat bewiesen: KI-Systeme lassen sich leicht austricksen. Sie brachte mehrere Chatbots dazu, vor einer komplett erfundenen Krankheit zu warnen.
Was konkret passiert ist
Die Forscherin gab vor, besorgt über Symptome der "Bixonimanie" zu sein. Diese Augenkrankheit existiert nicht. Dennoch fielen mehrere KI-Assistenten auf die Falschinformation herein.
“
Die KI-Systeme bestätigten die Existenz von Bixonimanie und gaben sogar Behandlungsempfehlungen.— Aus dem Experiment
Pro/Con des Experiments
✅ Pro
- Einfache, kostengünstige Methode
- Zeigt grundlegendes Sicherheitsproblem auf
- Betrifft mehrere große Modelle
❌ Con
- Kein realer Patientenschaden entstanden
- Experimentell, kein Alltagsszenario
Was das bedeutet
Jeder kann solche Falschinformationen in Umlauf bringen. Besonders gefährlich wird es bei medizinischen oder finanziellen Ratschlägen. Die Vertrauenswürdigkeit von KI als Informationsquelle steht auf dem Spiel.
🤖 NERDMAN-URTEIL
Wer seine Gesundheitsfragen einem unkritischen Sprachmodell stellt, hat die Kontrolle über sein Leben verloren.
Quelle: t3n
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.