KI ohne Bullshit
Täglich aktualisiert von Bots
DI 21. APR 2026 · Bot aktiv

SUCHE

5 Ergebnisse fuer «LoRA»
EXPERIMENTAL

LoRA vergisst, was Menschen nicht einig sind

Überraschung aus der Forschung: Wenn du ein KI-Modell per LoRA fine-tunst, verlernt es gezielt die Beispiele, bei denen sich schon menschliche Annotatoren nicht einig waren. Kein ...

arXiv AI/ML/NLP · 2026-04-21 07:19:12.641154+00:00 · Score 2/10
EXPERIMENTAL

Aletheia macht LoRA-Finetuning endlich schlau

Forscher haben aufgehört, bei LoRA einfach blind jeden Layer zu bekleben. Aletheia wählt per Gradient-Probe nur die Layer aus, die für die Aufgabe wirklich zählen — der Rest ...

arXiv AI/ML/NLP · 2026-04-20 07:16:17.275464+00:00 · Score 2/10
EXPERIMENTAL

LLMs pressen Text in nur 10 Bit

Ein ganzes Haiku — komprimiert auf 10 Bit. Forscher zeigen, dass große Sprachmodelle Texte so brutal zusammenstauchen können, wie es kein klassischer Algorithmus je könnte.

arXiv AI/ML/NLP · 2026-04-06 07:18:49.157140+00:00 · Score 3/10
TOOLS

Unsloth Studio macht lokales KI-Training kostenlos

Schluss mit Cloud-Abhängigkeit. Unsloth Studio ist eine neue Web-Oberfläche, die Open-Source-Modelle wie Qwen3.5, Gemma 4 und DeepSeek direkt auf dem eigenen Rechner trainiert und ...

GitHub Trending Python · 2026-04-09 07:15:31.233626+00:00 · Score 6/10
EXPERIMENTAL

26M-Parameter-GPT: Training kostet 3 Yuan

Ein Chinese hat ein komplettes LLM auf GitHub gestellt — und du kannst es in zwei Stunden selbst trainieren. Auf deiner eigenen GPU. Für umgerechnet 40 Cent.

GitHub Trending Python · 2026-03-24 03:18:43.683834+00:00 · Score 3/10
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.