OpenAI öffnet sich: Erste Open-Weight-Modelle seit 2019
Sechs Jahre lang hat OpenAI dichtgemacht. Jetzt gibt es plötzlich zwei neue Open-Weight-Modelle: gpt-oss-120b und gpt-oss-20b. Es sind die ersten offenen Gewichte seit GPT-2 — dem kleinen Modell, das 2019 noch als "zu gefährlich" für eine Veröffentlichung galt.
Sebastian Raschka, einer der respektiertesten ML-Forscher im Netz, hat die Architektur beider Modelle seziert. Sein Fazit: Clevere Optimierungen machen es möglich, die Modelle lokal zu betreiben. Ja, auch das 120-Milliarden-Parameter-Modell. Das ist kein PR-Stunt, sondern echte Ingenieursarbeit.
Der Kontext ist klar. Meta dominiert mit Llama den Open-Weight-Markt. Google drückt mit Gemma nach. OpenAI musste reagieren — und tut es jetzt mit Wucht. Zwei Modelle auf einen Schlag, beide mit offenen Gewichten, beide lokal lauffähig.
Für Entwickler ändert sich einiges. Wer bisher auf die API angewiesen war, kann jetzt selbst hosten. Wer Llama nutzte, hat plötzlich einen ernstzunehmenden Konkurrenten im lokalen Setup. Der Wettbewerb um Open-Weight-Modelle wird damit drastisch verschärft.