KI vergisst alles — Forscher haben einen Fix
Neuronale Netze haben ein peinliches Problem: Sie vergessen wie ein Goldfisch. Neues lernen? Klar. Aber dabei fliegt das alte Wissen raus. Forscher nennen das "Catastrophic Forgetting" — und ein neues Paper will es lösen.
Was konkret passiert
Wer ein neuronales Netz auf Aufgabe A trainiert und dann Aufgabe B draufpackt, kann Aufgabe A danach in die Tonne treten. Das Netz überschreibt seine eigenen Gewichte. Brutal, aber so funktioniert Backpropagation nun mal.
Das Team hinter dem Paper schlägt SFAO vor — Selective Forgetting-Aware Optimization. Klingt sperrig, ist aber clever.
Wie SFAO funktioniert
- Cosine Similarity:** Der Algorithmus prüft bei jedem Gradient-Update, ob die neue Lernrichtung mit dem alten Wissen kollidiert
- Per-Layer Gating:** Jede Schicht im Netz bekommt einen eigenen Türsteher, der entscheidet, wie viel Veränderung durchdarf
- Kontrolliertes Vergessen:** Statt alles zu sperren, darf das Netz gezielt vergessen — aber nur, was verzichtbar ist
💡 Was das bedeutet
Continual Learning ist der heilige Gral für KI-Systeme in der echten Welt. Roboter, autonome Autos, persönliche Assistenten — alles, was sich anpassen muss, ohne dabei zu verblöden. Wer das löst, baut die nächste Generation KI. SFAO ist ein akademischer Ansatz, kein fertiges Produkt. Aber die Richtung stimmt.
✅ Pro
- Eleganter Ansatz: nicht alles einfrieren, sondern intelligent filtern
- Funktioniert auf Layer-Ebene — feingranulare Kontrolle
- Adressiert ein echtes Kernproblem
❌ Con
- Reines Paper, kein Code-Release, keine Demo
- Benchmarks nur auf akademischen Datasets
- Bis das in GPT-5 oder Claude landet, vergehen Jahre