Rubber Duck lässt KI-Modelle sich gegenseitig prüfen
Ein Indie-Projekt will Code-Reviews auf eine neue Stufe heben: Verschiedene KI-Modelle sollen sich im GitHub Copilot CLI gegenseitig kontrollieren.
Was ist Rubber Duck?
Die Idee ist simpel. Statt einem einzigen KI-Modell blind zu vertrauen, schickt Rubber Duck deinen Code durch mehrere Modelle — direkt im Terminal. Cross-Model-Review nennt sich das.
Der Name kommt vom klassischen "Rubber Duck Debugging": Entwickler erklären ihren Code einer Gummiente, um Fehler zu finden. Hier übernehmen das halt Claude, GPT und Co. füreinander.
Wie funktioniert es?
Rubber Duck klinkt sich in die GitHub Copilot CLI ein. Du schreibst Code, ein Modell reviewt — und ein zweites Modell prüft den Review. Kette statt Einzelmeinung.
💡 Was das bedeutet
Jedes LLM hat blinde Flecken. GPT halluziniert anders als Claude, Claude übersieht anderes als Gemini. Wer mehrere Modelle gegeneinander laufen lässt, fängt theoretisch mehr Fehler. Das Prinzip kennt man aus der Forschung als "LLM-as-Judge" — hier landet es im Developer-Alltag.
✅ Pro
- Clevere Grundidee: Multi-Modell-Checks reduzieren Einzelmodell-Bias
- Direkt im CLI, kein Extra-Tool nötig
- Open-Source-Ansatz auf Product Hunt
❌ Con
- Extrem dünne Dokumentation, keine Demo verfügbar
- Unklar wie viele Modelle tatsächlich unterstützt werden
- Kostenrisiko: Jeder Review verdoppelt oder verdreifacht die API-Calls
- Noch kein Beweis, dass es in der Praxis besser funktioniert als ein einzelner guter Prompt