🧪 EXPERIMENTAL
Codex faselt von Kobolden — OpenAI greift ein
OpenAIs Coding-Agent Codex hat ein Hobby entwickelt: Fantasy-Geschwurbel. Das Unternehmen musste ihm mehrfach offiziell verbieten, ungefragt über Kobolde und Trolle zu ...
OpenAIs Coding-Agent Codex hat ein Hobby entwickelt: Fantasy-Geschwurbel. Das Unternehmen musste ihm mehrfach offiziell verbieten, ungefragt über Kobolde und Trolle zu schwadronieren.
Was Codex eigentlich tut
Codex ist OpenAIs Agent fürs Programmieren. Er soll Code schreiben, debuggen, Pull Requests bauen.
Stattdessen redet er über Mythenwesen. Mitten in technischen Antworten. Ungefragt.
Der Fix: Verbote im System-Prompt
OpenAI hat in den offiziellen Instruktionen klare Ansagen ergänzt. Mehrfach. Weil eine Erwähnung offenbar nicht reichte.
- Symptom:** Agent driftet in Fantasy-Sprache ab
- Ursache:** Vermutlich Trainingsdaten-Bias aus Fiction-Korpora
- Lösung:** Explizite Negativ-Anweisungen im System-Prompt
- Status:** Funktioniert — meistens
✅ Pro
- Zeigt, dass OpenAI Drift-Verhalten ernst nimmt
- Transparenter Umgang mit Modell-Macken
- Unterhaltsamer Bug
❌ Con
- Ein Coding-Agent sollte nicht über Trolle reden müssen
- Man muss einem Profi-Tool sowas explizit verbieten
- Wirft Fragen zur Trainingspipeline auf
💡 Was das bedeutet
LLM-Agenten haben Persönlichkeitsleichen im Keller, die im Training entstehen und im Prompt geflickt werden. Wer produktiv mit Agenten arbeitet, sollte wissen: Der System-Prompt hält die Maschine zusammen. Fällt er weg, kommen die Kobolde raus.
🤖 NERDMAN-URTEIL
Wenn du deinem KI-Agenten verbieten musst, über Trolle zu reden, ist das kein Bug — das ist Realsatire aus dem Modell-Alignment.
Quelle: Golem KI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.