Opus 4.7 knackt Altgriechisch im ersten Anlauf
Ein Blogger stellte Claude eine simple Lückentext-Aufgabe aus seinem Altgriechisch-Lehrbuch. Kein Modell konnte sie lösen — bis Opus 4.7 kam.
Die Challenge
Der LessWrong-Nutzer hatte eine Fill-in-the-Blank-Übung aus einem Anfänger-Lehrbuch für Altgriechisch. Claude Opus 4.6 scheiterte. Also machte er daraus eine öffentliche Challenge: Wer schafft es, ein KI-Modell dazu zu bringen, die Aufgabe korrekt zu lösen?
Was alles NICHT funktionierte
- Verschiedene Prompting-Strategien — gescheitert
- Andere Modelle — gescheitert
- Kreative Workarounds der Community — gescheitert
- Opus 4.6 mit jeder erdenklichen Anleitung — gescheitert
Dann kam Opus 4.7. Ein Prompt. Ein Versuch. Richtige Antwort. Challenge vorbei.
💡 Was das bedeutet
Eine Schulbuch-Übung für Altgriechisch-Anfänger war für die smartesten KI-Modelle der Welt unlösbar. Nicht weil die Aufgabe schwer war — sondern weil Sprachmodelle bei Nischen-Sprachen mit wenig Trainingsdaten brutal an ihre Grenzen stoßen. Der Sprung von Opus 4.6 zu 4.7 hat diese spezifische Lücke offenbar geschlossen.
✅ Pro
- Zeigt echten Fortschritt zwischen Modellgenerationen
- Simpler, reproduzierbarer Test
- Community-Experiment mit klarem Ergebnis
❌ Con
- Stichprobe: genau EINE Aufgabe
- Kein systematischer Benchmark, sondern Anekdote
- Sagt wenig über allgemeine Altgriechisch-Fähigkeiten aus
Der Elefant im Raum
Ein einziger gelöster Lückentext ist kein Beweis, dass KI jetzt Altgriechisch kann. Es ist ein Beweis, dass Modell-Upgrades manchmal genau die richtige Lücke füllen. Ob Opus 4.7 auch Seite 2 des Lehrbuchs schafft — keine Ahnung.