KI spricht jetzt wie 1930
Drei Forscher haben ein Sprachmodell gebaut, das nur Text von vor 1931 kennt. 13 Milliarden Parameter, trainiert auf 260 Milliarden Tokens — alles aus einer Zeit, als Radio noch Zukunftsmusik war.
Wer dahinter steckt
Nick Levine, David Duvenaud und Alec Radford. Letzterer ist kein Unbekannter: Radford war federführend bei GPT, GPT-2 und Whisper. Der Mann hat moderne Sprachmodelle miterfunden — und baut jetzt eines, das in der Vergangenheit lebt.
Wie es funktioniert
- Basismodell:** talkie-1930-13b-base, 53,1 GB, reines Pre-Training auf historischen Texten
- Chat-Version:** talkie-1930-13b-it, 26,6 GB, feingetunt mit Frage-Antwort-Paaren aus Nachschlagewerken vor 1931
- Trainingsmaterial:** 260 Milliarden Tokens aus englischen Texten, alle vor 1931 veröffentlicht
- Lizenz:** Beide Modelle offen verfügbar
Das Finetuning nutzt einen cleveren Trick: Statt moderne Instruktionsdaten zu verwenden, haben die Forscher Frage-Antwort-Paare direkt aus historischen Enzyklopädien und Referenzwerken extrahiert. Das Modell antwortet also nicht nur in alter Sprache — es antwortet mit altem Wissen.
✅ Pro
- Einzigartiger Ansatz: Sprachmodell als Zeitmaschine
- Von erfahrenen Forschern, nicht von Hobby-Bastlern
- Chat-Interface zum Ausprobieren verfügbar
- Offen zugänglich
❌ Con
- Alles Wissen endet 1930 — faktisch also oft falsch
- Nur Englisch
- 53 GB sind nichts für schwache Hardware
💡 Was das bedeutet
Talkie ist kein Produkt, sondern ein Experiment. Aber ein verdammt interessantes. Es zeigt, dass Sprachmodelle nicht nur Werkzeuge sein müssen — sie können auch Fenster in andere Zeiten sein. Für Historiker, Linguisten und alle, die wissen wollen, wie Sprache sich verändert hat, ist das Gold wert.