Was denkt sich ein KI-Modell, wenn es ein EEG anschaut? Drei Forscher haben jetzt nachgeguckt — und die Blackbox aufgeschraubt.
Die KI-Branche hat ein Stromfresser-Problem. Metas Llama 4 kommt mit 2 Billionen Parametern — und der Energiebedarf wächst mit jedem neuen Modell weiter.
Nur 3 Milliarden aktive Parameter — und trotzdem auf Augenhöhe mit Modellen, die zehnmal so groß sind. Das Qwen-Team hat Qwen3.6-35B-A3B veröffentlicht, ein Open-Weight ...
Hugging Face zeigt, wie man mit simplen Matrizen-Tricks LLMs radikal abspeckt. Keine neue Architektur, kein neues Modell — nur clevere Mathematik.
Together AI hat ein neues Verfahren vorgestellt, das Diffusion Transformers ohne zusätzliches Training beschleunigt. Der Name: Chipmunk. Der Trick: dynamische, spaltenweise Sparse ...
OpenAI veröffentlicht GPU-Kernel, die eine fast vergessene Netzwerk-Architektur wiederbeleben: Block-Sparse Networks. Die Rechenzeit? Teilweise um Größenordnungen schneller als ...
Interpretability-Forschung war bisher Lesen im Kaffeesatz. Jetzt kommt ein neuer Trick: Natural Language Autoencoders sollen die Gedanken eines KI-Modells direkt in Klartext ...
Ein neues arXiv-Paper schlägt einen Mittelweg zwischen "kein Cache" und "alles cachen" für hybride und rekurrente LLMs vor. Klingt nerdig — ist es auch.
Alibaba hat mit Qwen3.6-27B ein Open-Weight-Modell veröffentlicht, das bei Agentic-Coding-Benchmarks Modelle mit 397 Milliarden Parametern hinter sich lässt. Dichtes Modell, ...
Die KI-Branche baut immer größere Foundation Models für Zellbiologie. Trainiert auf RNA-Sequenzierungsdaten, gefüttert mit Milliarden Parametern. Aber kaum jemand schaut nach, was ...
OpenAI hat GPT-4 den Schädel aufgemacht. Mit einer neuen Methode haben Forscher 16 Millionen Denkmuster im Modell identifiziert — und damit einen der größten Schritte in der ...
Forscher trainieren ein winziges ReLU-Netz auf eine Top-K-Aufgabe. Das Netz erfindet selbst eine Datenstruktur, die Informatiker seit 1970 kennen.
Ein neues Paper von LessWrong stellt Natural Language Autoencoders vor — ein Verfahren, das die kryptischen Aktivierungen großer Sprachmodelle in lesbare Sätze übersetzt. Klingt ...
Forscher haben eine Methode gebaut, die LLM-Aktivierungen in normalen Sätzen beschreibt. Unüberwacht. Ohne Labels. Ohne menschliches Zutun.
Ein neues Paper auf arXiv will Neural Networks beim Training live überwachen — bevor sie kollabieren. Das Werkzeug heißt Collapse Index. Klingt nach Sci-Fi, ist aber Mathematik.
OpenAI hat still und leise ein Open-Source-Modell auf Hugging Face gestellt. Privacy Filter erkennt und schwärzt personenbezogene Daten in Texten — und läuft sogar im Browser.
DeepSeek liefert. Das chinesische KI-Lab hat die Preview-Version von DeepSeek-V4 veröffentlicht — zwei neue Modelle, die eine Million Token Kontext nativ verarbeiten. Nicht als ...
Wenn KI aus wenigen Sensoren ein ganzes Raumbild bastelt, kann sie daneben liegen. Ein neues Paper zeigt: Das Netz kann lernen, wo es sich selbst nicht traut.
OpenAI hat eine Methode vorgestellt, die neuronale Netze brutal ausdünnt — ohne dass die Leistung einbricht. Das Zauberwort: L₀-Regularisierung.
DeepSeek hat sein neues Flaggschiff-Modell V3.2 veröffentlicht. Wieder über ein US-Feiertagswochenende, wieder mit einem Knall. Das Ding spielt in Benchmarks auf dem Niveau von ...