Meta liest jetzt dein Gehirn per KI
Meta FAIR hat TRIBE v2 veröffentlicht — ein KI-Modell, das vorhersagt, wie dein Gehirn auf Videos, Audio und Text reagiert. Gleichzeitig. In einem einzigen Modell.
Was TRIBE v2 macht
Die Neurowissenschaft arbeitet seit Jahrzehnten in Silos. Ein Modell für Gesichtserkennung, eins für Bewegung, eins für Sprache. TRIBE v2 schmeißt das alles in einen Topf. Das Modell nimmt Video, Audio oder Text — und sagt vorher, welche Hirnregionen im fMRI aufleuchten.
Wie es funktioniert
- Input:** Video, Audio, Text — einzeln oder kombiniert
- Output:** Vorhergesagte fMRI-Aktivierungsmuster über das gesamte Gehirn
- Basis:** Tri-modales Foundation Model, trainiert auf echten Hirnscan-Daten
- Ansatz:** Statt isolierte Hirnareale zu modellieren, bildet TRIBE v2 die Integration multimodaler Reize ab
✅ Pro
- Erstes Modell, das drei Modalitäten gleichzeitig auf Hirnaktivität abbildet
- Überbrückt die fragmentierte Forschungslandschaft
- Benchmark-relevante Ergebnisse bei fMRI-Vorhersagen
❌ Con
- Forschungsprojekt, kein Produkt — noch weit weg von jeder Anwendung
- fMRI-Daten sind teuer, langsam und schwer skalierbar
- Meta + Gehirndaten = bei vielen Menschen sofort Alarmstufe Rot
💡 Was das bedeutet
Wer versteht, wie das Gehirn multimodale Reize verarbeitet, kann bessere KI-Interfaces bauen. TRIBE v2 ist ein Werkzeug für Neurowissenschaftler, nicht für Produktmanager. Aber wenn Meta die Brücke zwischen Hirnforschung und KI-Architektur schlägt, hat das langfristig Auswirkungen auf alles von Content-Algorithmen bis Brain-Computer-Interfaces.