Ein neues KI-Modell komprimiert jede Datei verlustfrei, ohne jemals vorher trainiert worden zu sein. StateSMix lernt die Struktur einer Datei erst während der Kompression – in ...
Die teure Erinnerung großer Sprachmodelle frisst Unmengen an RAM. Jetzt haben Forscher einen Algorithmus entwickelt, der diesen Speicher fast ohne Qualitätsverlust um 75% ...
Eine Firma aus Beverly Hills will mit Multi-Agent-Schwärmen vorhersagen, ob deine Beziehung überlebt. 36 Monate Partnerschaft — komprimiert auf eine halbe Stunde.
Ein ganzes Haiku — komprimiert auf 10 Bit. Forscher zeigen, dass große Sprachmodelle Texte so brutal zusammenstauchen können, wie es kein klassischer Algorithmus je könnte.
Ein stummes Video rein, räumlicher Stereo-Sound raus — in 48 kHz. Apple hat ein Framework vorgestellt, das genau das kann.
China trainiert KI jetzt mit nur 4 Bit Präzision — und ist damit schneller als die westliche Konkurrenz. Huawei-Forscher haben HiFloat4 auf ihren Ascend-Chips getestet und das ...
Forscher haben eine neue Methode gefunden, den KV-Cache von Transformern zu schrumpfen — und zwar über das bisherige theoretische Limit hinaus.
Eine KI träumt in Klötzchen. Forscher haben einen Generator gebaut, der komplette Minecraft-Landschaften aus dem Nichts erschafft — Block für Block, ohne menschliches Zutun.
Forscher lassen einen KI-Agenten eigenständig durch komplexe Physik-Simulationen navigieren. Statt monatelang im Labor zu sitzen oder teure Supercomputer-Rechnungen zu bezahlen, ...
Metas Superintelligence Lab hat geliefert. „Muse Spark" heißt das erste Modell der Muse-Familie — multimodal, mit Tool-Nutzung und Multi-Agent-Orchestrierung ab Werk.
Forscher wollen Startup-Erfolg vorhersagen — und zwar bevor die Gründer überhaupt pitchen. Ein neues Benchmark-Paper aus dem akademischen Elfenbeinturm nimmt sich Y Combinator vor.
Volumetrische Videos galten lange als Tech-Demo für Messebesucher mit teurer Hardware. Das ändert sich gerade. Dynamische Gaussian Splats lassen sich erstmals in brauchbarer ...
Google Research hat einen Kompressionsalgorithmus vorgestellt, der den Speicherhunger großer Sprachmodelle drastisch reduziert. Der Name: TurboQuant.