KI ohne Bullshit
Täglich aktualisiert von Bots
FR 15. MAI 2026 · Bot aktiv

SUCHE

20 Ergebnisse fuer «Sparse»
EXPERIMENTAL

Forscher zerlegen KI-Gehirne mit Sparse Autoencoders

Was denkt sich ein KI-Modell, wenn es ein EEG anschaut? Drei Forscher haben jetzt nachgeguckt — und die Blackbox aufgeschraubt.

arXiv AI/ML/NLP · 2026-05-15 04:23:38.500593+00:00 · Score 2/10
EXPERIMENTAL

Nullen machen KI 10× effizienter

Die KI-Branche hat ein Stromfresser-Problem. Metas Llama 4 kommt mit 2 Billionen Parametern — und der Energiebedarf wächst mit jedem neuen Modell weiter.

IEEE Spectrum AI · 2026-04-28 19:23:19.682888+00:00 · Score 3/10
TOOLS

Alibabas neues Mini-Modell schlägt die Großen

Nur 3 Milliarden aktive Parameter — und trotzdem auf Augenhöhe mit Modellen, die zehnmal so groß sind. Das Qwen-Team hat Qwen3.6-35B-A3B veröffentlicht, ein Open-Weight ...

MarkTechPost · 2026-04-17 10:22:03.889357+00:00 · Score 6/10
EXPERIMENTAL

Block-Sparse macht Language Models 50% kleiner

Hugging Face zeigt, wie man mit simplen Matrizen-Tricks LLMs radikal abspeckt. Keine neue Architektur, kein neues Modell — nur clevere Mathematik.

Hugging Face Blog · 2026-03-23 18:21:38.437291+00:00 · Score 3/10
EXPERIMENTAL

Chipmunk macht Bild-KI doppelt so schnell

Together AI hat ein neues Verfahren vorgestellt, das Diffusion Transformers ohne zusätzliches Training beschleunigt. Der Name: Chipmunk. Der Trick: dynamische, spaltenweise Sparse ...

Together AI Blog · 2026-03-23 15:21:50.985155+00:00 · Score 4/10
EXPERIMENTAL

OpenAI macht dünnbesetzte Netze brutal schnell

OpenAI veröffentlicht GPU-Kernel, die eine fast vergessene Netzwerk-Architektur wiederbeleben: Block-Sparse Networks. Die Rechenzeit? Teilweise um Größenordnungen schneller als ...

OpenAI News · 2026-03-22 06:46:51.614262+00:00 · Score 6/10
EXPERIMENTAL

Forscher bringen Claude zum Reden — auf Englisch

Interpretability-Forschung war bisher Lesen im Kaffeesatz. Jetzt kommt ein neuer Trick: Natural Language Autoencoders sollen die Gedanken eines KI-Modells direkt in Klartext ...

TheSequence · 2026-05-13 13:20:18.818396+00:00 · Score 2/10
EXPERIMENTAL

Forscher tunen LLM-Cache mit Sparse-Trick

Ein neues arXiv-Paper schlägt einen Mittelweg zwischen "kein Cache" und "alles cachen" für hybride und rekurrente LLMs vor. Klingt nerdig — ist es auch.

arXiv AI/ML/NLP · 2026-05-08 04:21:36.455350+00:00 · Score 2/10
AGENTS

27B-Modell schlägt 397B-Riesen beim Coden

Alibaba hat mit Qwen3.6-27B ein Open-Weight-Modell veröffentlicht, das bei Agentic-Coding-Benchmarks Modelle mit 397 Milliarden Parametern hinter sich lässt. Dichtes Modell, ...

MarkTechPost · 2026-04-22 22:21:25.637387+00:00 · Score 8/10
EXPERIMENTAL

Bio-KI verschwendet 90 Prozent ihres Wissens

Die KI-Branche baut immer größere Foundation Models für Zellbiologie. Trainiert auf RNA-Sequenzierungsdaten, gefüttert mit Milliarden Parametern. Aber kaum jemand schaut nach, was ...

LessWrong · 2026-04-12 19:16:44.654061+00:00 · Score 2/10
HOT

OpenAI zerlegt GPT-4 in 16 Millionen Einzelteile

OpenAI hat GPT-4 den Schädel aufgemacht. Mit einer neuen Methode haben Forscher 16 Millionen Denkmuster im Modell identifiziert — und damit einen der größten Schritte in der ...

OpenAI News · 2026-03-23 09:20:32.996159+00:00 · Score 6/10
EXPERIMENTAL

Neuronale Netze bauen heimlich Bloom-Filter

Forscher trainieren ein winziges ReLU-Netz auf eine Top-K-Aufgabe. Das Netz erfindet selbst eine Datenstruktur, die Informatiker seit 1970 kennen.

LessWrong · 2026-05-09 22:18:36.850020+00:00 · Score 3/10
EXPERIMENTAL

Forscher übersetzen GPT-Gehirn in Klartext

Ein neues Paper von LessWrong stellt Natural Language Autoencoders vor — ein Verfahren, das die kryptischen Aktivierungen großer Sprachmodelle in lesbare Sätze übersetzt. Klingt ...

LessWrong · 2026-05-09 07:18:52.731349+00:00 · Score 3/10
EXPERIMENTAL

KI erklärt sich selbst — fast

Forscher haben eine Methode gebaut, die LLM-Aktivierungen in normalen Sätzen beschreibt. Unüberwacht. Ohne Labels. Ohne menschliches Zutun.

AI Alignment Forum · 2026-05-07 22:20:42.963260+00:00 · Score 4/10
EXPERIMENTAL

Forscher schnüffeln Neuronalen Netzen ins Gehirn

Ein neues Paper auf arXiv will Neural Networks beim Training live überwachen — bevor sie kollabieren. Das Werkzeug heißt Collapse Index. Klingt nach Sci-Fi, ist aber Mathematik.

arXiv AI/ML/NLP · 2026-05-01 07:20:40.103117+00:00 · Score 2/10
TOOLS

OpenAI verschenkt ein PII-Filter mit 50M Parametern

OpenAI hat still und leise ein Open-Source-Modell auf Hugging Face gestellt. Privacy Filter erkennt und schwärzt personenbezogene Daten in Texten — und läuft sogar im Browser.

MarkTechPost · 2026-04-29 04:20:23.205290+00:00 · Score 7/10
HOT

DeepSeek V4 knackt die Million-Token-Grenze

DeepSeek liefert. Das chinesische KI-Lab hat die Preview-Version von DeepSeek-V4 veröffentlicht — zwei neue Modelle, die eine Million Token Kontext nativ verarbeiten. Nicht als ...

MarkTechPost · 2026-04-25 01:19:02.976371+00:00 · Score 8/10
EXPERIMENTAL

Neuronales Netz misst jetzt eigene Unsicherheit

Wenn KI aus wenigen Sensoren ein ganzes Raumbild bastelt, kann sie daneben liegen. Ein neues Paper zeigt: Das Netz kann lernen, wo es sich selbst nicht traut.

arXiv AI/ML/NLP · 2026-04-03 04:20:28.187609+00:00 · Score 2/10
EXPERIMENTAL

OpenAI macht neuronale Netze radikal schlanker

OpenAI hat eine Methode vorgestellt, die neuronale Netze brutal ausdünnt — ohne dass die Leistung einbricht. Das Zauberwort: L₀-Regularisierung.

OpenAI News · 2026-03-22 06:46:36.634290+00:00 · Score 3/10
HOT

DeepSeek V3.2 schlägt GPT-5 — und ist Open-Weight

DeepSeek hat sein neues Flaggschiff-Modell V3.2 veröffentlicht. Wieder über ein US-Feiertagswochenende, wieder mit einem Knall. Das Ding spielt in Benchmarks auf dem Niveau von ...

Ahead of AI (Raschka) · 2026-03-22 00:51:32.976212+00:00 · Score 8/10
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.