Dieses KI-Modell kennt kein Internet
Ein 13-Milliarden-Parameter-Modell, das nie vom Zweiten Weltkrieg gehört hat. Kein Witz — genau das haben Forscher um Nick Levine, David Duvenaud und Alec Radford gebaut.
Was ist Talkie-1930?
Ein Open-Weight-LLM, trainiert ausschließlich auf englischen Texten von vor 1931. Keine Wikipedia, kein Reddit, keine modernen Bücher. Das Modell weiß nichts über Smartphones, Hitler oder Taylor Swift.
- Parameter:** 13 Milliarden
- Trainingsdaten:** Nur Texte vor 1931
- Lizenz:** Open-Weight, frei verfügbar
- Team:** Non-Profit-Forschungsgruppe
Was reingeht — und was nicht
Das Modell kennt Dickens, aber nicht Orwell. Es kennt den Ersten Weltkrieg, aber nicht den Zweiten. Es kennt Pferdekutschen, aber keine Flugzeuge im Linienverkehr. Jeder Text nach 1930 wurde rigoros aussortiert.
✅ Pro
- Historisch saubere Wissensbasis — kein modernes Rauschen
- Open-Weight, jeder kann es runterladen und testen
- Perfekt für Forschung: Wie generalisiert ein Modell ohne modernes Wissen?
❌ Con
- Praktischer Nutzen im Alltag: null
- 13B ist nach heutigen Standards klein
- Trainingskorpus begrenzt auf englische Texte
Was das bedeutet
Talkie-1930 ist kein Produkt — es ist ein Experiment. Die eigentliche Frage dahinter: Kann ein LLM über Dinge schlussfolgern, die es nie gesehen hat? Wie verhält sich historisches Reasoning ohne modernes Kontextwissen? Für die KI-Forschung ist das Gold wert, weil es zeigt, wo Generalisierung aufhört und Halluzination anfängt.