Indische Logik soll KI das Denken beibringen
Forscher greifen 2.000 Jahre zurück, um ein 2026er-Problem zu lösen. Ihr Werkzeug: Navya-Nyaya, ein formales Logiksystem aus der indischen Philosophie.
Das Problem
LLMs können nicht denken — sie imitieren Denken. Apple-Forscher haben das brutal bewiesen: Irrelevanten Kontext in Mathe-Aufgaben gepackt, Performance um 65% eingebrochen. Kein echtes Reasoning, nur Pattern-Matching mit Selbstbewusstsein.
Was Pramana anders machen will
Das Paper schlägt vor, LLMs mit Navya-Nyaya zu fine-tunen. Das ist ein jahrhundertealtes System aus der indischen Erkenntnistheorie, das Behauptungen an nachvollziehbare Beweisketten knüpft. Jede Aussage braucht eine Quelle. Jeder Schluss braucht eine formale Herleitung.
✅ Pro
- Adressiert ein echtes Problem: LLMs halluzinieren und merken es nicht
- Formale Logik als Training-Signal ist ein valider Ansatz
- Verbindung von Philosophie und ML ist kreativ
❌ Con
- Rein akademisches Paper — kein Modell, keine Demo, kein Benchmark
- Unklar ob Navya-Nyaya besser funktioniert als westliche formale Logik
- Fine-Tuning auf Logik heißt nicht, dass das Modell danach logisch denkt
💡 Was das bedeutet
Erstmal: gar nichts Praktisches. Die Idee ist intellektuell reizvoll — aber zwischen "Paper auf arXiv" und "LLM das weniger halluziniert" liegen Welten. Das Apple-Experiment mit den 65% Performance-Verlust bleibt der eigentlich wichtige Datenpunkt hier.