Drei Forscher haben ein Sprachmodell gebaut, das nur Text von vor 1931 kennt. 13 Milliarden Parameter, trainiert auf 260 Milliarden Tokens — alles aus einer Zeit, als Radio noch ...
Ein 13-Milliarden-Parameter-Modell, das nie vom Zweiten Weltkrieg gehört hat. Kein Witz — genau das haben Forscher um Nick Levine, David Duvenaud und Alec Radford gebaut.