Lineare Netze rechnen plötzlich nichtlinear
OpenAI hat ein Paper rausgehauen, das Grundlagen erschüttert. Deep Linear Networks — also Netze, die eigentlich nur simple lineare Berechnungen können — zeigen nichtlineares Verhalten. Ja, richtig gelesen.
Das klingt nach Uni-Seminar, ist aber ein dicker Hund. Bisher galt: Lineare Schichten hintereinander ergeben wieder eine lineare Funktion. Egal wie tief das Netz. OpenAIs Forscher zeigen jetzt, dass das nicht die ganze Wahrheit ist. Unter bestimmten Bedingungen entsteht Nichtlinearität — quasi aus dem Nichts.
Für die Praxis heißt das erstmal: nichts. Kein neues Produkt, kein neuer Agent, kein Release. Reine Grundlagenforschung. Aber genau solche Arbeiten verschieben langfristig, wie wir neuronale Netze verstehen und bauen. Wer die Theorie knackt, baut bessere Architekturen.
OpenAI zeigt damit: Wir machen nicht nur GPT-Upgrades und API-Preise. Die Forschungsabteilung lebt noch. Ob das reicht, um den Vorsprung bei der Grundlagenarbeit gegen DeepMind und Meta zu halten, steht auf einem anderen Blatt.