🏆 TOOLS
LLM 0.32a2 zeigt jetzt Reasoning live
Simon Willisons CLI-Tool für Large Language Models bekommt ein Alpha-Update. Der spannendste Brocken: OpenAIs Reasoning-Modelle laufen jetzt über den neuen ...
Simon Willisons CLI-Tool für Large Language Models bekommt ein Alpha-Update. Der spannendste Brocken: OpenAIs Reasoning-Modelle laufen jetzt über den neuen `/v1/responses`-Endpoint.
Was konkret neu ist
- Endpoint-Wechsel:** Reasoning-Modelle wie GPT-5 nutzen ab sofort `/v1/responses` statt `/v1/chat/completions`
- Interleaved Reasoning:** Reasoning-Tokens funktionieren jetzt sauber über Tool Calls hinweg
- Live-Anzeige:** Zusammengefasste Reasoning-Tokens erscheinen direkt im Terminal — in eigener Farbe neben dem normalen Output
- Opt-out:** Wer's nicht sehen will, killt es mit `-R` oder `--hide-reasoning`
✅ Pro
- Endlich Einblick in den Denkprozess von GPT-5-Klasse-Modellen
- Reasoning bleibt erhalten zwischen Tool-Aufrufen
- Volle CLI-Kontrolle, keine Web-UI nötig
❌ Con
- Noch Alpha — `0.32a2`, nicht Production
- Nur OpenAI-Modelle betroffen, andere Provider außen vor
- Reasoning-Tokens kosten extra Geld
💡 Was das bedeutet
Wer Agenten oder Tool-Pipelines mit GPT-5 baut, sieht zum ersten Mal lokal, wie das Modell zwischen Tool Calls "nachdenkt". Debugging wird damit deutlich greifbarer — vorher war das eine Black Box.
🤖 NERDMAN-URTEIL
Willison liefert das CLI-Update, das OpenAIs Reasoning-Modelle endlich aus dem Schatten holt — Pflicht-Install für alle, die nicht im Playground rumklicken wollen.
Quelle: Simon Willison
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.