Metas KI liest Gehirne besser als Hirnscans
Ein KI-Modell von Meta sagt voraus, wie das menschliche Gehirn auf Bilder, Töne und Sprache reagiert. Und zwar genauer als eine echte Messung einer einzelnen Person.
Was konkret passiert ist
Meta hat ein Modell trainiert, das Gehirnaktivität vorhersagt. Nicht ungefähr. Nicht "in die richtige Richtung". Sondern präziser als ein einzelner fMRT-Scan einer realen Testperson.
Das Modell kennt die typische Hirnreaktion auf einen Stimulus besser als das Gehirn einer konkreten Person sie zeigt. Klingt absurd. Ist aber das Ergebnis.
💡 Was das bedeutet
Einzelne Hirnscans sind verrauscht. Jeder Scan einer Person weicht leicht ab — Tagesform, Koffein, Müdigkeit. Das KI-Modell hat aus Tausenden Scans gelernt, wie ein "durchschnittliches" Gehirn reagiert. Und dieses Durchschnittsmuster ist stabiler als jede Einzelmessung. Für die Neurowissenschaft ist das ein massiver Hebel: weniger Probanden, schnellere Studien, billigere Forschung.
Zahlenbox
- 3 Modalitäten** — Bilder, Töne, Sprache
- >1 Scan** — Modell schlägt Einzelmessung in der Vorhersagegenauigkeit
- Meta FAIR** — Forschungslabor, kein Produkt-Launch
✅ Pro
- Könnte Neurowissenschaft drastisch beschleunigen
- Weniger teure Scans pro Studie nötig
- Multimodal: funktioniert nicht nur für Bilder
❌ Con
- Reine Forschung, kein Produkt, kein Release-Datum
- "Durchschnittliches Gehirn" heißt: individuelle Abweichungen verschwinden
- Meta veröffentlicht gerne Papers, aber selten die Modelle dahinter