🔥 HOT NEWS
ChatGPT alarmiert jetzt deine Familie
OpenAI baut einen Notruf-Knopf in ChatGPT ein. Wer in seelischer Not chattet, dessen Vertrauensperson bekommt Bescheid.
OpenAI baut einen Notruf-Knopf in ChatGPT ein. Wer in seelischer Not chattet, dessen Vertrauensperson bekommt Bescheid.
Was konkret passiert ist
Erwachsene Nutzer können freiwillig einen "Trusted Contact" hinterlegen. Erkennt ChatGPT Anzeichen von Suizid-Gedanken oder Selbstverletzung, wird diese Person benachrichtigt. Das Feature ist optional und muss aktiv eingeschaltet werden.
- Zielgruppe:** Nur erwachsene Nutzer
- Trigger:** Erkannte Krisen-Themen wie Selbstverletzung oder Suizid
- Empfänger:** Eine vom Nutzer bestimmte Vertrauensperson
- Status:** Opt-in, nicht standardmäßig aktiv
“
Wenn jemand in einer Krise sein könnte, kann der Kontakt zu einer vertrauten Person den entscheidenden Unterschied machen.— OpenAI, offizielles Statement
✅ Pro
- Echte Hilfe statt nur "Ruf die Telefonseelsorge an"
- Nutzer behält die Kontrolle über den Kontakt
- Reagiert auf reale Tragödien der letzten Monate
❌ Con
- KI entscheidet, wann jemand "in Krise" ist — Fehlalarme garantiert
- Datenschutz-Albtraum: Wer liest mit?
- Verschiebt Verantwortung von OpenAI auf Familie und Freunde
💡 Was das bedeutet
ChatGPT ist längst Therapeut, Beichtvater und Krisen-Hotline für Millionen. OpenAI gibt zu, dass das Risiken hat — und reicht den schwarzen Peter weiter an Angehörige. Das ist weniger Innovation als Haftungs-Absicherung nach den Klagen wegen Suizid-Fällen.
🤖 NERDMAN-URTEIL
Gut gemeint, aber im Kern eine PR-Aktion mit juristischem Rückgrat — die echte Frage bleibt, warum Menschen ihre dunkelsten Momente überhaupt einem Chatbot anvertrauen.
Quelle: The Verge AI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.