Die teure Erinnerung großer Sprachmodelle frisst Unmengen an RAM. Jetzt haben Forscher einen Algorithmus entwickelt, der diesen Speicher fast ohne Qualitätsverlust um 75% ...
Ein neues Open-Source-Projekt macht Balkonkraftwerke schlau. Das System analysiert Wetterdaten, kennt deinen Stromtarif und entscheidet selbst, wann der Speicher lädt — und wann ...
Der südkoreanische Chip-Riese SK Hynix erwägt einen US-Börsengang. Volumen: bis zu 14 Milliarden Dollar. Ziel: mehr Fabriken, mehr Chips, Ende der Speicher-Knappheit.
Ein neues Paper auf arXiv stellt MP-ISMoE vor — ein System, das Transfer Learning effizienter machen soll. Klingt trocken? Ist es auch. Aber die Idee dahinter ist clever.
Samsungs Chip-Sparte fährt einen historischen Gewinnsprung ein. Schuld ist der KI-Hunger der Tech-Riesen — und ein massiver Speicher-Engpass.
Google hat ein neues Feature für seinen Browser vorgestellt: Skills in Chrome. Ab dem 14. April 2026 können Nutzer ihre meistgenutzten KI-Prompts als wiederverwendbare ...
Google baut den Browser zur KI-Werkbank um. Mit "Skills in Chrome" lassen sich bewährte Prompts speichern, teilen und mit einem Klick wiederverwenden.
Forscher haben einen neuen Angriffsvektor entdeckt, der über den Arbeitsspeicher von Grafikkarten komplette Systeme übernehmen kann. Der Name: GPUBreach. Die Methode: ...
Ein neues Research-Paper von Google reicht aus, um Milliarden an Börsenwert zu vernichten. Alphabet hat einen Algorithmus veröffentlicht, der KI-Speicher deutlich effizienter ...
Google Research hat einen Kompressionsalgorithmus vorgestellt, der den Speicherhunger großer Sprachmodelle drastisch reduziert. Der Name: TurboQuant.
Ihr lasst KI eure persönlichen Podcasts basteln? Dieses neue Kommandozeilen-Tool spielt sie direkt in eure Spotify-Bibliothek ein.
Google nimmt sich einfach 4 Gigabyte Speicherplatz auf Ihrem Computer. Ohne zu fragen. Das ist kein Scherz.
Samsung ist jetzt eine Billion Dollar wert. Der KI-Chip-Boom hat die Aktie nach oben katapultiert — und macht den Konzern zum erst zweiten asiatischen Billion-Dollar-Club-Mitglied.
Apple ML Research hat ein neues Verfahren vorgestellt: Stochastic KV Routing. Ziel ist es, den Speicherhunger von Transformer-Modellen während der Textgenerierung zu zähmen.
Die alten Könige der KI-Architektur melden sich zurück. Forscher entstauben LSTM-Netzwerke und bringen sie mit xLSTM in Stellung gegen die Transformer.
Forscher zeigen: LLM-Agenten mit externem Memory lösen das Lernproblem nicht — sie verschieben es nur.
Ein neues Paper aus der Forschung zeigt, wie man multimodale Foundation Models schneller und schlanker machen will. Kein Produkt, kein Demo — aber die Idee hat es in sich.
Totgesagte leben länger. Apple-Forscher haben einen Weg gefunden, Recurrent Neural Networks mit Milliarden Parametern zu trainieren — parallel statt sequenziell. Das war bisher ...
Ein YouTuber hat genug von den Speicherpreisen. Statt zu jammern, baut er seinen eigenen DRAM — im Hinterhof.
Microcontroller haben weniger Speicher als ein Tamagotchi. Trotzdem will ein Forschungsteam darauf laufend neue Objekte erkennen — ohne dass die KI alles Gelernte vergisst.