Altgriechisch entlarvt Claude als Blender
Ein LessWrong-Nutzer lernt Altgriechisch mit Claude Opus 4.6. Erst als Hausaufgaben-Korrektor, dann als Lehrer. Bis ihm auffiel: Das Modell macht systematische Fehler — und klingt dabei absolut selbstsicher.
Die Challenge
Daraus wurde ein Experiment. Die "Unsupervised Elicitation Challenge": Kannst du Claudes Fehler beim Altgriechisch finden, OHNE selbst Griechisch zu können? Wer die Sprache kennt, ist disqualifiziert. Der Punkt ist nicht Griechisch — der Punkt ist Methodik.
💡 Was das bedeutet
Das trifft einen Nerv. Millionen nutzen LLMs zum Lernen von Sprachen, Mathe, Programmieren. Wenn das Modell confident Unsinn erzählt, merkt der Lernende es nicht. Besonders bei Nischen-Themen wie antiken Sprachen fehlen die Trainingsdaten — und die Halluzinationen werden dreister.
✅ Pro
- Kluges Experiment-Design: Testet eine reale Schwäche
- Zeigt, wie man LLM-Fehler auch ohne Fachwissen aufspüren kann
- Relevant für jeden, der mit KI lernt
❌ Con
- Einzelfall, keine systematische Studie
- Altgriechisch ist extrem nischig — geringe Datenlage war vorhersehbar
- Keine Angabe, welche konkreten Fehler Claude macht
Das eigentliche Problem
LLMs sind die überzeugendsten Bullshitter der Geschichte. Sie sagen dir nicht "Ich bin unsicher bei Aorist-Formen im Altgriechischen." Sie hauen dir eine Antwort raus, als hätten sie bei Aristoteles persönlich studiert. Für Mainstream-Themen funktioniert das. Für alles andere wird es gefährlich.