OpenAI baut ein GPT nur für Hacker
OpenAI hat ein neues Modell vorgestellt, das ausschließlich für Cybersecurity gedacht ist. Name: GPT-5.4-Cyber.
Was steckt dahinter
Das Modell ist eine Feinabstimmung von GPT-5.4 — trainiert darauf, bei defensiven Cybersecurity-Aufgaben die Leine locker zu lassen. OpenAI nennt es "cyber-permissive". Heißt: Das Modell darf Dinge tun, die normale GPT-Versionen aus Sicherheitsgründen verweigern.
In preparation for increasingly more capable models from OpenAI over the next few months, we are fine-tuning our models specifically to enable defensive cybersecurity use cases.— OpenAI
Was das bedeutet
OpenAI reagiert auf ein echtes Problem: Security-Profis brauchen KI-Tools, die nicht bei jeder Frage nach Exploits oder Schwachstellen den Dienst verweigern. Wer Angriffe abwehren will, muss sie verstehen dürfen. Dafür gibt es jetzt ein eigenes Modell statt ständiger Prompt-Akrobatik.
Zahlenbox
- Modell:** GPT-5.4-Cyber
- Basis:** GPT-5.4 (feingetunt)
- Zugang:** Über "Trusted Access"-Programm (seit Februar 2026)
- Fokus:** Defensive Cybersecurity
Trusted Access als Türsteher
OpenAI hat bereits im Februar 2026 ein Programm namens "Trusted Access" gestartet. Das funktioniert wie eine Whitelist: Nur geprüfte Organisationen bekommen Zugang zu den weniger eingeschränkten Modellen. Kein offener API-Zugang für jeden Script-Kiddie.
Das ist auch OpenAIs Antwort auf Anthropics Claude Mythos — das Modell, das ebenfalls auf Security-Anwendungen spezialisiert ist. Der Wettlauf um den Cyber-Markt hat begonnen.