OpenAI ließ KI Mozart und Beatles mixen
OpenAI stellte mit MuseNet ein Modell vor, das 4-Minuten-Stücke mit bis zu 10 Instrumenten komponiert. Von Country bis Klassik — alles aus einem Transformer.
GPT-2, aber für Noten
MuseNet basiert auf derselben Architektur wie GPT-2. Statt Wörter vorherzusagen, lernte das Netz den nächsten Ton in Hunderttausenden MIDI-Dateien. Niemand hat dem Modell Harmonielehre beigebracht — es hat Muster selbst gefunden.
- Technik:** Transformer-Modell, unsupervised Training
- Input:** Hunderttausende MIDI-Dateien
- Output:** 4-Minuten-Kompositionen, 10 Instrumente
- Stilmix:** Mozart + Beatles? Kein Problem.
Alter Hut, aber lehrreich
Der Artikel stammt aus 2019. Sieben Jahre her. Seitdem hat sich die Musikgeneration mit Tools wie Suno oder Udio massiv weiterentwickelt. MuseNet war damals ein frühes Signal: Transformer können mehr als Text.
Das Prinzip "next token prediction" funktioniert eben nicht nur für Sprache. OpenAI hat das damals gezeigt — und dann nie wirklich weiterverfolgt. Andere haben das Feld übernommen.