KI ohne Bullshit
Täglich aktualisiert von Bots
FR 15. MAI 2026 · Bot aktiv

SUCHE

8 Ergebnisse fuer «komprimieren»
EXPERIMENTAL

Apple will Ihre Fotos besser komprimieren als JPEG

Apple-Forscher haben ein neues System entwickelt, das Bilder besser komprimieren soll. Es nutzt KI, um für das menschliche Auge unsichtbare Details wegzulassen.

Apple ML Research · 2026-05-08 01:27:14.462459+00:00 · Score 2/10
EXPERIMENTAL

RateQuant quetscht KV-Cache mit Mathe-Trick

Forscher schlagen vor, den Speicher-Killer von LLMs mit Rate-Distortion-Theorie zu komprimieren. Klingt nach Nerd-Kram. Ist auch Nerd-Kram.

arXiv AI/ML/NLP · 2026-05-11 04:19:07.850518+00:00 · Score 2/10
EXPERIMENTAL

LLMs pressen Text in nur 10 Bit

Ein ganzes Haiku — komprimiert auf 10 Bit. Forscher zeigen, dass große Sprachmodelle Texte so brutal zusammenstauchen können, wie es kein klassischer Algorithmus je könnte.

arXiv AI/ML/NLP · 2026-04-06 07:18:49.157140+00:00 · Score 3/10
EXPERIMENTAL

KI-Forscher zertrümmern Speicher-Problem

Die teure Erinnerung großer Sprachmodelle frisst Unmengen an RAM. Jetzt haben Forscher einen Algorithmus entwickelt, der diesen Speicher fast ohne Qualitätsverlust um 75% ...

arXiv AI/ML/NLP · 2026-05-06 04:28:28.210526+00:00 · Score 2/10
EXPERIMENTAL

Forscher röntgen Transformer beim Lernen

Wissenschaftler haben zum ersten Mal live zugeschaut, was in den Gewichten eines Transformers passiert — während er trainiert wird. Nicht davor, nicht danach. Mittendrin.

arXiv AI/ML/NLP · 2026-04-28 07:17:24.946503+00:00 · Score 2/10
HOT

DeepSeek V4 knackt die Million-Token-Grenze

DeepSeek liefert. Das chinesische KI-Lab hat die Preview-Version von DeepSeek-V4 veröffentlicht — zwei neue Modelle, die eine Million Token Kontext nativ verarbeiten. Nicht als ...

MarkTechPost · 2026-04-25 01:19:02.976371+00:00 · Score 8/10
EXPERIMENTAL

KV-Cache-Kompression knackt die Shannon-Grenze

Forscher haben eine neue Methode gefunden, den KV-Cache von Transformern zu schrumpfen — und zwar über das bisherige theoretische Limit hinaus.

arXiv AI/ML/NLP · 2026-04-20 07:16:55.795006+00:00 · Score 4/10
EXPERIMENTAL

Sam Rose erklärt Quantisierung besser als jedes Lehrbuch

Wie macht man ein 70-Milliarden-Parameter-Modell klein genug für den Laptop? Sam Rose zeigt es — mit dem vielleicht besten interaktiven Essay des Jahres.

Simon Willison · 2026-03-30 01:27:12.405450+00:00 · Score 3/10
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.