OpenAI jagt AGI mit kämpfenden KI-Agenten
OpenAI lässt KI-Agenten gegeneinander antreten — und glaubt, dass genau das der Weg zu AGI ist. In neuen Multiagent-Umgebungen konkurrieren Agenten um Ressourcen, kooperieren oder lernen sogar zu kommunizieren. Klingt nach Videospiel, ist aber Grundlagenforschung.
Der Clou: Die Agenten trainieren gegen Klone von sich selbst. Das bedeutet, der Schwierigkeitsgrad passt sich automatisch an. Wird ein Agent besser, wird sein Gegner auch besser. Ein endloses Wettrüsten ohne Obergrenze. OpenAI nennt das einen "natürlichen Lehrplan" — kein Mensch muss die Aufgaben schwerer machen, das regelt der Wettbewerb von allein.
Und genau hier wird es interessant: In diesen Umgebungen gibt es kein stabiles Gleichgewicht. Egal wie schlau ein Agent wird, es gibt immer Druck, noch schlauer zu werden. OpenAI sieht darin einen direkten Pfad Richtung allgemeine Intelligenz. Die These: Wer in einer Welt voller gleichstarker Gegner überlebt, entwickelt zwangsläufig generelle Fähigkeiten.
Konkretes Produkt oder neue Benchmark-Ergebnisse? Fehlanzeige. Das hier ist OpenAIs Forschungsküche, nicht der Showroom. Kein Release-Datum, keine Demo, keine Zahlen zum Angeben. Nur die Vision, dass Multiagent-Wettbewerb der Schlüssel zu AGI sein könnte.