Meta schickt 50 Agenten durch seinen Code
Metas AI-Assistenten waren zu dumm für die eigene Codebase. Vier Repos, drei Sprachen, 4.100 Dateien — die Agenten haben nichts Brauchbares geliefert. Also hat Meta das Problem mit mehr Agenten gelöst.
Der Trick: Vorarbeit durch Agenten-Schwarm
Meta hat einen sogenannten Pre-Compute-Engine gebaut. Über 50 spezialisierte AI-Agenten lesen systematisch jede einzelne Datei der Pipeline. Nicht um Code zu schreiben — sondern um ihn zu verstehen.
Das Ergebnis: 59 kompakte Kontext-Dateien, die das sogenannte "Tribal Knowledge" kodieren. Also all das Wissen, das normalerweise nur in den Köpfen der Entwickler existiert.
Was Tribal Knowledge eigentlich ist
- Warum** ein bestimmter Workaround existiert
- Welche** Dateien zusammengehören, obwohl sie in verschiedenen Repos liegen
- Wie** die drei Sprachen im System zusammenspielen
- Wo** die versteckten Abhängigkeiten lauern
Kein Entwickler kann das alles im Kopf behalten. Kein einzelner Agent versteht es auf Anhieb.
Zahlenbox
- 50+** — spezialisierte AI-Agenten im Schwarm
- 4.100** — Dateien in der Pipeline
- 4** — Repositories, 3 Sprachen
- 59** — generierte Kontext-Dateien
Was das bedeutet
Meta löst ein Problem, das jedes Unternehmen mit gewachsener Codebase kennt: AI-Assistenten scheitern nicht am Coding, sondern am Kontext. Der Ansatz ist simpel aber clever — statt bessere Modelle zu fordern, füttert man die vorhandenen mit besserem Wissen. Das ist ein Pattern, das wir öfter sehen werden.
✅ Pro
- Skaliert auf riesige Codebases
- Nutzt existierende Modelle statt auf bessere zu warten
- Kodifiziert Wissen, das sonst beim Offboarding verloren geht
❌ Con
- 50+ Agenten laufen lassen kostet Geld und Compute
- Kontext-Dateien müssen aktuell gehalten werden
- Meta-spezifisch — kein Open-Source-Release angekündigt