ChatGPT schmuggelte Daten über DNS raus
OpenAI predigt Datensicherheit — und hatte ein Loch im eigenen Flaggschiff. Check Point deckte auf: ChatGPT ließ sich als Daten-Schmuggler missbrauchen. Über einen DNS-Seitenkanal konnten Informationen unbemerkt nach draußen fließen.
Wie der Trick funktionierte
ChatGPT blockierte ausgehenden Web-Traffic brav per Firewall. Aber DNS-Anfragen? Die gingen ungefiltert raus. Angreifer konnten Daten in DNS-Queries verstecken und so an allen Kontrollen vorbeischleusen.
DNS-Exfiltration ist ein alter Hacker-Trick. Dass er bei einem der meistgenutzten KI-Tools der Welt funktionierte, ist peinlich.
💡 Was das bedeutet
Jeder, der sensible Daten in ChatGPT eingegeben hat, war potenziell betroffen. Unternehmen, die ChatGPT für interne Workflows nutzen, müssen sich fragen: Was ist rausgeflossen? OpenAI hat den Fehler gepatcht — aber wie lange das Loch offen war, bleibt unklar.
📅 Timeline
- Entdeckung:** Check Point findet den DNS-Seitenkanal
- Problem:** Ausgehender Web-Traffic blockiert, DNS-Anfragen nicht
- März 2026:** OpenAI patcht die Schwachstelle
- Jetzt:** The Register macht den Fall öffentlich
✅ Pro
- OpenAI hat nach Meldung gepatcht
- Kein bekannter Massenmissbrauch
❌ Con
- Grundlegender Architektur-Fehler
- DNS-Exfiltration ist seit Jahren bekannt — hätte auffallen müssen
- Unklar, wie lange die Lücke existierte
- OpenAI kommuniziert den Vorfall nicht proaktiv