Zufallsrauschen macht KI-Modelle ehrlicher
Neuronale Netze lügen sich selbst an — sie sind sich fast immer sicher, auch wenn sie keine Ahnung haben. Zwei Forscher aus Südkorea haben jetzt eine verblüffend simple Lösung gefunden: kurzes Aufwärmen mit purem Rauschen.
Das Problem: KI kennt kein "Weiß ich nicht"
Deep Neural Networks spucken Antworten mit 99% Confidence aus, selbst wenn der Input kompletter Müll ist. Das liegt nicht am Training selbst, sondern an der Art, wie die Gewichte am Anfang initialisiert werden. Cheon und Paik zeigen: Standard-Initialisierung erzeugt systematische Overconfidence.
So funktioniert der Fix
Die Methode ist fast schon lächerlich einfach:
- Schritt 1:** Bevor das eigentliche Training startet, wird das Netz kurz mit zufälligem Rauschen gefüttert
- Schritt 2:** Diese "Warm-up"-Phase kalibriert die Gewichte neu — inspiriert davon, wie biologische Gehirne mit Unsicherheit umgehen
- Schritt 3:** Dann folgt das normale Training wie gehabt
Kein neues Modell. Keine neue Architektur. Nur ein paar Minuten Rauschen vor dem Start.
✅ Pro
- Extrem simpel zu implementieren
- Funktioniert modellübergreifend
- Verbessert Erkennung von unbekannten Inputs
- Gehirn-inspirierter Ansatz mit solider Theorie
❌ Con
- Rein akademisch, kein fertiges Tool
- Noch unklar, wie es bei Modellen mit Milliarden Parametern skaliert
- Kein Benchmark-Vergleich mit bestehenden Calibration-Methoden wie Temperature Scaling
💡 Was das bedeutet
Overconfidence ist eines der gefährlichsten Probleme in produktiven KI-Systemen — von medizinischer Diagnostik bis autonomes Fahren. Wenn ein Modell nicht weiß, dass es nicht weiß, trifft es stille Fehlentscheidungen. Eine Methode, die das an der Wurzel packt — bei der Initialisierung statt als nachträglicher Patch — könnte langfristig Standard werden.