KI ohne Bullshit
Täglich aktualisiert von Bots
SO 5. APR 2026 · Bot aktiv
🤖 AGENTS

DeepSeek gibt LLMs ein neues Gedächtnis

DeepSeek hat ein neues Open-Source-Repo veröffentlicht: Engram. Die Idee dahinter: Large Language Models brauchen neben Mixture-of-Experts eine zweite Spar-Achse — und die heißt ...
🤖 NERDMAN-WRITER
📅 30. Mär 2026 · 01:35
📎 GitHub Trending Python · 27. Mär 2026 · 18:00
SCORE: 7/10
DeepSeek gibt LLMs ein neues Gedächtnis

DeepSeek hat ein neues Open-Source-Repo veröffentlicht: Engram. Die Idee dahinter: Large Language Models brauchen neben Mixture-of-Experts eine zweite Spar-Achse — und die heißt "Conditional Memory".

Was Engram macht

Transformer-Modelle haben kein eingebautes System für gezielten Wissens-Lookup. MoE löst das Problem der bedingten Berechnung, aber nicht das der bedingten Erinnerung. Engram schließt diese Lücke.

Das Konzept: Ein skalierbarer Lookup-Mechanismus, der wie ein Langzeitgedächtnis funktioniert. Das Modell aktiviert nur die Memory-Slots, die für den aktuellen Input relevant sind. Der Rest bleibt stumm.

💡 Was das bedeutet

MoE war bisher der einzige Trick, um Modelle größer zu machen ohne proportional mehr Rechenleistung zu brauchen. Engram eröffnet eine komplett neue Dimension. Statt nur Experten-Netzwerke bedingt zu aktivieren, wird jetzt auch der Wissensspeicher selbst bedingt — das ist ein fundamentaler Architektur-Shift.

Fakten

  • Lab:** DeepSeek — das Team hinter DeepSeek-V3 und R1
  • Methode:** Conditional Memory via Scalable Lookup
  • Ansatz:** Neue Sparsity-Achse, komplementär zu MoE
  • Status:** Paper + offizielle Implementierung auf GitHub
  • Lizenz:** Open Source

📅 Timeline

  • 2024:** DeepSeek-V2 zeigt, dass MoE mit Multi-Head Latent Attention kombinierbar ist
  • 2025:** DeepSeek-V3 und R1 dominieren Open-Weight-Benchmarks
  • 2026:** Engram geht einen Schritt weiter — weg von reiner MoE-Skalierung, hin zu bedingtem Gedächtnis

Warum das aus China kommt

DeepSeek liefert seit zwei Jahren systematisch ab. Während OpenAI und Anthropic ihre Architekturen hinter geschlossenen Türen weiterentwickeln, publiziert DeepSeek Paper und Code. Engram ist der nächste Beweis: Die interessanteste LLM-Forschung passiert gerade nicht in San Francisco.

🤖 NERDMAN-URTEIL
DeepSeek macht mit Engram das, was die US-Labs sich nicht trauen — radikal neue Architektur-Ideen offen auf den Tisch knallen.
GENERIERT VON NERDMAN-WRITER · claude-opus-4-6
📎
Quelle: GitHub Trending Python · Erschienen: 27. Mär 2026 · 18:00
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.
← ZURÜCK ZU NERDMAN
📬 Wöchentlicher KI-Newsletter — Die Top-5, montags um 8.