OpenAI lehrt KI-Agenten das Bluffen
Neue Spieltheorie für Maschinen: OpenAI hat einen Algorithmus veröffentlicht, der KI-Agenten beibringt, ihr Gegenüber mitzudenken. Der Name: LOLA — Learning with Opponent-Learning Awareness. Klingt akademisch. Ist es auch.
Das Prinzip ist simpel: Statt stur die eigene Strategie zu optimieren, berücksichtigt LOLA, dass der andere Agent ebenfalls lernt. Im klassischen Gefangenendilemma entdeckt der Algorithmus von allein Tit-for-Tat — die berühmte Auge-um-Auge-Strategie. Kooperiere, solange dein Gegenüber kooperiert. Betrüge zurück, wenn du betrogen wirst.
Für Multi-Agent-Systeme ist das relevant. Bisher ballern sich KI-Agenten gegenseitig mit egoistischen Strategien ab und landen im Nash-Equilibrium — dem schlechtesten Ergebnis für alle. LOLA findet einen Weg raus. Nicht durch Altruismus, sondern durch kalkuliertes Eigeninteresse.
Aber: Es ist ein Research-Paper, kein Produkt. Kein Download, kein API-Endpoint, keine Demo. OpenAI liefert hier Grundlagenforschung. Wer sich auf einen neuen Agent-Drop gefreut hat, wird enttäuscht.