OpenAI kannte die Gefahr — und schwieg
Eine Frau plant einen Amoklauf. ChatGPT merkt es. OpenAI sperrt den Account. Und dann? Nichts. Keine Polizei, kein Anruf, kein Hinweis.
Was passiert ist
Die mutmaßliche Täterin führte bereits im Sommer verdächtige Chats mit ChatGPT. OpenAI erkannte das, sperrte den Account — und beließ es dabei. Monate später kam es zur Tat.
Die Chronologie des Versagens
📅 Timeline
- Sommer 2025:** Verdächtige Chats werden erkannt
- Sommer 2025:** OpenAI sperrt den Account
- Sommer 2025:** Keine Meldung an Behörden
- 2026:** Der Amoklauf passiert
Sam Altman reagiert
Jetzt meldet sich der CEO persönlich. Altman entschuldigt sich öffentlich dafür, dass OpenAI die Behörden nicht informiert hat. Die Frage, die im Raum steht: Hätte ein einziger Anruf Menschenleben retten können?
💡 Was das bedeutet
OpenAI sitzt auf Millionen von Chats. Wenn das Unternehmen verdächtige Inhalte erkennt, aber nicht handelt, wird die KI zum stillen Mitwisser. Das ist kein technisches Problem — das ist ein moralisches.
Die Kernfrage
- Erkennung:** Hat funktioniert. Der Account wurde gesperrt.
- Meldung:** Hat nicht stattgefunden. Keine Behörde wurde informiert.
- Verantwortung:** Ungeklärt. Es gibt keine gesetzliche Pflicht — aber eine ethische.
- Konsequenz:** Altman verspricht Besserung. Ob das reicht, entscheiden nicht CEOs.
Wer haftet, wenn KI wegschaut?
Tech-Unternehmen haben bei Kindesmissbrauch längst Meldepflichten. Bei Gewaltandrohungen? Fehlanzeige. OpenAI hatte die Daten, hatte die Erkennung, hatte die Möglichkeit. Was fehlte, war der Wille — oder das Protokoll.