EXPERIMENTAL
Forscher zähmen Token-Längen mit neuem Modell
Ein neues Paper auf arXiv schlägt ein Framework vor, das die Länge von KI-Antworten auf Token-Ebene vorhersagt. Klingt nerdig — könnte aber Inferenz-Kosten massiv drücken.
arXiv AI/ML/NLP
· 2026-05-02 01:16:43.859932+00:00
· Score 2/10