KI-Doktor erfindet Diagnosen — Patienten in Gefahr
Ontarios Rechnungsprüfer hat sich die KI-Notizassistenten in Arztpraxen angesehen. Das Ergebnis: Die Dinger halluzinieren munter Symptome, Diagnosen und Behandlungen zusammen, die der Patient nie hatte.
Was konkret passiert ist
Überarbeitete Ärzte nutzen KI-Scribes, um Patientengespräche automatisch in strukturierte Akten zu verwandeln. Klingt nach Entlastung. Ist in der Praxis ein Risiko fürs Leben.
Der Auditor General von Ontario prüfte die von der Provinzregierung empfohlenen Tools — und fand systematisch falsche, unvollständige und frei erfundene Einträge in echten Patientenakten.
- Was die KI tut:** Halluziniert Symptome, Diagnosen, Pflegeentscheidungen
- Wo es landet:** Direkt im offiziellen Health Record
- Wer prüft:** Oft niemand — Ärzte signieren im Akkord
- Worst Case laut Audit:** "Inadequate or harmful treatment plans"
💡 Was das bedeutet
Ein KI-Tool, das in einem Arztbrief Quatsch erfindet, ist kein Bug — es ist ein Behandlungsfehler in Serie. Wenn der nächste Kollege die halluzinierte Diagnose liest und darauf weiterbehandelt, hat der Patient ein Problem, das er nie hatte. Und kriegt ein Medikament gegen eine Krankheit, die nie da war.
✅ Pro
- Spart Ärzten Dokumentationszeit
- Senkt Burnout-Risiko
- Strukturierte Notizen statt Krakel
❌ Con
- Halluziniert in echten Akten
- Regierung hat empfohlen, ohne sauber zu prüfen
- Haftungsfrage komplett ungeklärt
- Patient merkt nichts davon