EXPERIMENTAL
Forscher schrumpfen LLM-Speicherfresser per Lernverfahren
Ein neues Paper auf arXiv präsentiert "LKV" — eine Methode, die den größten Engpass langer Kontexte angeht: den KV-Cache.
arXiv AI/ML/NLP
· 2026-05-11 04:19:23.906006+00:00
· Score 2/10