🧪 EXPERIMENTAL
Forscher finden Gedächtniszellen in KI-Modellen
Wo speichert ein Sprachmodell sein Wissen über die Welt? Ein Forscherteam hat die Antwort: in einzelnen Neuronen, versteckt in den frühen Schichten.
Wo speichert ein Sprachmodell sein Wissen über die Welt? Ein Forscherteam hat die Antwort: in einzelnen Neuronen, versteckt in den frühen Schichten.
Was die Forscher gemacht haben
Das Team hat sogenannte "Entity Cells" in Large Language Models gesucht — einzelne MLP-Neuronen, die auf bestimmte Entitäten reagieren. Also: Gibt es ein Neuron, das feuert, wenn das Modell an "Angela Merkel" denkt? Kurz: Ja.
So funktioniert es
- Methode:** 200 Entitäten aus dem PopQA-Datensatz ausgewählt
- Test:** Templated Prompts, die gezielt nach Fakten über Personen, Orte, Organisationen fragen
- Validierung:** Kausale Interventionen — Neuron aus, Wissen weg
- Ergebnis:** Die entscheidenden Neuronen sitzen in den frühen Schichten des Modells
💡 Was das bedeutet
Sprachmodelle sind keine Black Box mehr — zumindest ein bisschen weniger. Wenn wir wissen, WO ein Modell Fakten speichert, können wir gezielt Fehler korrigieren, Halluzinationen reduzieren und verstehen, warum ein Modell Unsinn erzählt. Das ist die Grundlage für echtes Model Editing.
✅ Pro
- Validiert über mehrere Modelle hinweg
- Kausaler Nachweis, nicht nur Korrelation
- Konkrete Anwendung: gezielte Wissenskorrektur
❌ Con
- Nur 200 Entitäten getestet — winziger Ausschnitt
- Kein Tool, kein Produkt, reine Grundlagenforschung
- Bis das in der Praxis landet, vergehen Jahre
🤖 NERDMAN-URTEIL
Solide Grundlagenforschung, die keinen Hype verdient — aber Respekt, weil sie die Black Box ein Stück weiter aufschraubt.
Quelle: arXiv AI/ML/NLP
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.