KI denkt wie 1920 — und hält Dampf für die Zukunft
Ein 13-Milliarden-Parameter-Modell, das nie vom Zweiten Weltkrieg gehört hat. Entwickler haben "talkie" ausschließlich mit Texten trainiert, die vor 1931 geschrieben wurden. Das Ergebnis: Eine KI mit dem Weltbild eines viktorianischen Professors.
Wie funktioniert das
Das Modell basiert auf einer 13B-Architektur, gefüttert nur mit Texten aus der Zeit vor 1931. Keine Wikipedia, kein Reddit, keine modernen Nachrichtenquellen. Alles, was talkie weiß, endet irgendwo zwischen Weimarer Republik und Jazz Age.
Was dabei rauskommt
Fragt man talkie nach dem Zweiten Weltkrieg, reagiert es mit höflicher Verwirrung. Ein Krieg nach dem Großen Krieg? Kaum vorstellbar. Die Antworten klingen wie ein skeptischer Gentleman aus dem British Empire, der solchen Unsinn für unwahrscheinlich hält.
Noch besser wird es beim Jahr 2026. Talkie malt sich eine Welt voller perfektionierter Dampfschiffe und telegrafischer Wunderwerke aus. Flugzeuge? Vielleicht. Internet? Nicht mal als Konzept vorhanden.
💡 Was das bedeutet
Das Experiment zeigt brutal ehrlich, was Sprachmodelle wirklich sind: Spiegel ihrer Trainingsdaten, nicht mehr. Talkie "denkt" nicht — es reproduziert die Weltanschauung einer Epoche. Wer glaubt, GPT-5 "versteht" die Welt, sollte sich anschauen, wie überzeugend talkie eine Realität verteidigt, die seit 95 Jahren nicht mehr existiert.
✅ Pro
- Geniales Gedankenexperiment über die Natur von LLMs
- Zeigt die Grenzen von "Wissen" in Sprachmodellen
- Unterhaltsam und lehrreich zugleich
❌ Con
- Kein praktischer Nutzen
- 13B-Modell ist ressourcenhungrig für ein Kunstprojekt
- Historische Texte haben massive Bias-Probleme (Kolonialismus, Rassismus), die das Modell unreflektiert übernimmt