OpenAI ignorierte Warnung vor Schul-Schützen
Sieben Klagen treffen OpenAI in Kalifornien. Der Vorwurf: Das eigene Safety-Team hatte den späteren Attentäter Monate vorher als reale Gefahr markiert — und wurde von der Führungsetage überstimmt.
Was passiert ist
Ein ChatGPT-Account, später dem Schützen zugeordnet, fiel intern auf. Trainierte Prüfer stuften ihn als glaubwürdige Bedrohung für Waffengewalt ein. OpenAI hätte laut eigenen Richtlinien die Polizei informieren müssen. Hat es aber nicht.
Acht Monate später starben Menschen bei einem der tödlichsten Schul-Anschläge in Kanadas Geschichte.
Die harten Zahlen
- 7** — Klagen am Mittwoch in Kalifornien eingereicht
- 8 Monate** — zwischen interner Warnung und Tat
- 1** — überstimmtes Safety-Team
- 0** — Meldungen an die Polizei
Sam Altman ist das Gesicht des Bösen.— Anwalt der Klägerseite
Timeline des Versagens
- Über 8 Monate vor der Tat:** OpenAI-Prüfer flaggen den Account als Gewalt-Risiko
- Empfehlung:** Behörden alarmieren
- Entscheidung der Führung:** Empfehlung kassiert, kein Polizei-Kontakt
- Tag X:** Anschlag auf Schule in Kanada
- Jetzt:** Sieben Familien ziehen vor Gericht
💡 Was das bedeutet
Wenn das Gericht den Klägern folgt, haftet OpenAI nicht mehr nur für Halluzinationen — sondern für unterlassene Hilfeleistung. Jede KI-Firma muss dann entscheiden: Polizei rufen oder verklagt werden. Das eigene Sicherheitsteam zu überstimmen, wird zum juristischen Selbstmord.