KI-Coach erwischt Patienten beim Lügen
Forscher bauen einen Health-Agent, der zwei Wahrheiten gleichzeitig im Kopf hat: was der Patient sagt — und was die Akte verrät. Wenn beides nicht zusammenpasst, schlägt das System Alarm.
Das Problem in einem Satz
LLM-Agenten im Gesundheitswesen müssen sich entscheiden: Glauben sie dem Patienten oder der elektronischen Patientenakte? Beide lügen — auf ihre Art.
Die zwei Quellen
- Patient:** sagt was er heute fühlt, vergisst was letzten Monat war
- EHR (Akte):** medizinisch geprüft, aber oft Wochen alt
- Standard-Memory:** glättet Widersprüche weg, statt sie zu zeigen
Wie die Architektur funktioniert
Das Paper schlägt ein Dual-Stream-Memory vor: Ein Stream merkt sich die Selbstauskunft des Patienten, der andere die klinischen Daten. Ein dritter Layer vergleicht beide und markiert Diskrepanzen, statt sie zu verschmelzen.
✅ Pro
- Widersprüche werden sichtbar statt wegoptimiert
- Coach-Agent kann gezielt nachfragen
- Funktioniert über lange Zeiträume
❌ Con
- Reine Forschungs-Architektur, kein Produkt
- arXiv-Preprint, noch kein Peer-Review
- Skalierung auf Millionen Patienten unklar
💡 Was das bedeutet
Wer KI-Agenten für Healthcare baut, kann nicht einfach ChatGPT-Memory drüberkippen. Medizinische Wahrheit ist konfliktreich — und ein Coach, der Widersprüche ignoriert, ist gefährlich. Diese Arbeit zeigt, wie man Erinnerung als Diagnose-Werkzeug nutzt.