KI scheitert an Kuhurin-Propaganda auf YouTube
Forscher haben GPT-4, Claude und Co. auf indische YouTube-Videos losgelassen — und die Modelle sind krachend gescheitert. Die Aufgabe: Erkennen, ob jemand Kuhurin (Gomutra) ernsthaft als Heilmittel gegen Verstopfung bewirbt oder das Ganze kritisch einordnet.
Das Problem
30 mehrsprachige YouTube-Transkripte aus Indien, alle zum Thema Gomutra. Die Videos mischen religiöse Sprache mit pseudo-wissenschaftlichen Claims — und genau das macht es für LLMs unmöglich. Denn die Debunking-Videos benutzen dieselbe Sprache wie die Propaganda. Heilig und Hokus-Pokus klingen für eine KI identisch.
Was getestet wurde
- Material:** 30 YouTube-Transkripte auf Hindi, Tamil und Englisch
- Methode:** LLM-gestützte Diskursanalyse (post-facto)
- Ergebnis:** Modelle können kulturell codierte Fehlinformation nicht zuverlässig von Aufklärung unterscheiden
- Grund:** Beide Seiten nutzen identische rhetorische Muster
Warum das so schwer ist
Die Pro-Gomutra-Fraktion sagt: "Kuhurin heilt, das steht in den Veden." Die Skeptiker sagen: "Leute behaupten, Kuhurin heile, weil es in den Veden stehe — das ist Unsinn." Für einen LLM ist der Unterschied zwischen Zitat und Zustimmung in diesem kulturellen Kontext praktisch unsichtbar.
💡 Was das bedeutet
Gesundheits-Fehlinformation ist kein reines Sprachproblem — sie ist ein Kulturproblem. LLMs, die auf westlichen Daten trainiert wurden, haben keinen Schimmer von den religiösen und sozialen Codes des Globalen Südens. Wer Content-Moderation auf YouTube per KI automatisieren will, bekommt hier eine kalte Dusche.
✅ Pro
- Wichtige Forschungslücke identifiziert
- Zeigt konkrete Grenzen von LLM-basierter Moderation
- Mehrsprachiger Ansatz (Hindi, Tamil, Englisch)
❌ Con
- Nur 30 Transkripte — winzige Stichprobe
- Keine konkreten Lösungsvorschläge
- Kein Vergleich mit menschlichen Moderatoren