OpenAI killt Codex – GPT-5.5 kann alles
OpenAI macht Schluss mit dem Sonderweg. Das separate Coding-Modell Codex ist Geschichte — zum zweiten Mal.
Was passiert ist
Die Coding-Fähigkeiten wandern direkt ins Hauptmodell GPT-5.5. Kein Extra-Modell mehr, kein Umschalten, kein Sonder-API-Endpoint. Ein Modell für alles.
Warum das Sinn ergibt
Codex war von Anfang an ein Experiment. Erst kam Codex, dann wurde es in GPT-4 integriert, dann kam es als eigenständiges Produkt zurück — jetzt ist wieder Schluss. OpenAI dreht sich im Kreis, aber diesmal mit einem guten Argument: GPT-5.5 soll besser coden UND weniger Tokens fressen.
Zahlenbox
- 2×** — Codex wurde jetzt zum zweiten Mal eingestampft
- Weniger Tokens** — GPT-5.5 soll effizienter programmieren als das separate Codex
- 1 Modell** — statt zwei getrennte Systeme für Code und Text
Was das bedeutet
Für Entwickler ändert sich der Workflow. Wer bisher explizit Codex angesteuert hat, muss umstellen. Die gute Nachricht: Weniger Modell-Auswahl heißt weniger Entscheidungschaos. Die schlechte: Wenn GPT-5.5 beim Coden patzt, gibt es keinen spezialisierten Fallback mehr.
✅ Pro
- Ein Modell, ein Preis, eine API
- Weniger Token-Verbrauch versprochen
- Code + Reasoning + Text aus einer Hand
❌ Con
- Kein spezialisiertes Coding-Modell als Alternative
- OpenAI hat Codex schon einmal beerdigt und wiederbelebt — Vertrauen?
- GPT-5.5 muss liefern, sonst war die Konsolidierung ein Fehler