🤖 AGENTS
OpenAI killt 40% Latenz in Agenten-API
OpenAI rüstet die Responses API auf WebSockets um. Schluss mit dem ständigen HTTP-Hin-und-Her bei Agenten-Workflows.
OpenAI rüstet die Responses API auf WebSockets um. Schluss mit dem ständigen HTTP-Hin-und-Her bei Agenten-Workflows.
Was konkret passiert ist
Die alte Architektur zwang Coding-Agents zu einem Request-Response-Pingpong. Jeder Tool-Call kostete Zeit. Jetzt hält eine persistente Verbindung den Kanal offen — Streaming, Tool-Calls und Multi-Step-Orchestrierung laufen über dieselbe Pipe.
- Modus:** WebSocket-basierte Execution für die Responses API
- Zielgruppe:** Coding-Agents, Real-Time-Systeme, produktive Multi-Step-Pipelines
- Vorteil:** Persistente Verbindung statt HTTP-Cycle pro Schritt
- Verfügbarkeit:** OpenAI Responses API
Zahlenbox
- 40%** — weniger Latenz laut OpenAI
- 1** — persistente Verbindung statt N HTTP-Calls
- 0** — neue Modelle nötig, läuft mit bestehenden
⚖️ HTTP vs. WebSocket bei Agents
- Verbindung:** HTTP öffnet pro Call neu, WebSocket bleibt offen
- Streaming:** WebSocket nativ, HTTP nur per Workaround
- Tool-Calls:** Über WebSocket ohne Roundtrip-Overhead
- Komplexität:** Höher beim Setup, niedriger im Betrieb
💡 Was das bedeutet
Wer Coding-Agents in Produktion betreibt, kennt das Problem: Jeder Tool-Call kostet 200–800ms Overhead. Bei zehn Schritten frisst das die User-Experience auf. WebSockets sind kein neuer Trick — aber endlich auch in der Responses API angekommen.
🤖 NERDMAN-URTEIL
Hätte OpenAI vor zwei Jahren bringen können, aber besser spät als nie — 40% Latenz raus ist kein Marketing, das spürt jeder Agent-Entwickler sofort.
Quelle: InfoQ AI/ML
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.