Fake-Songs klauen Künstlern Namen auf Spotify
Jazz-Pianist Jason Moran erfährt per Anruf von einem Freund: Auf Spotify läuft ein neues Album unter seinem Namen. Problem: Er hat es nie aufgenommen.
Was passiert ist
Bassist Burniss Earl Travis entdeckte das Album zufällig. "It has your name on it, but I don't think it's you," sagte er zu Moran. Richtig erkannt — die Songs waren KI-generiert. Jemand hatte einfach Morans Namen geklaut und Deepfake-Musik darunter veröffentlicht.
Die Masche dahinter
Fake-Streams sind in der Musikindustrie nichts Neues. Betrüger laden massenhaft Songs hoch, generieren künstliche Plays und kassieren Tantiemen. Generative AI hat dieses Problem jetzt auf ein völlig neues Level gehoben.
- Vorher:** Betrüger brauchten billige Produzenten oder geklaute Tracks
- Jetzt:** KI erzeugt in Minuten ganze Alben, die "gut genug" klingen
- Der Trick:** Upload unter echten Künstlernamen → Fans streamen ahnungslos → Geld fließt an Betrüger
Was das bedeutet
Für Musiker ist das Identitätsdiebstahl im industriellen Maßstab. Die Tantiemen pro Stream sind ohnehin winzig — wenn jetzt auch noch Fake-Tracks die Plays aufteilen, verdienen echte Künstler noch weniger. Spotify und Co. haben bisher kein wirksames System, um KI-generierte Fakes unter fremden Namen zu erkennen und zu löschen.
Pro (für Betrüger)
- Nahezu kostenlose Produktion
- Schwer nachweisbar
- Plattformen reagieren langsam
Con (für alle anderen)
- Musiker verlieren Geld und Kontrolle über ihren Namen
- Fans werden getäuscht
- Vertrauen in Streaming-Plattformen sinkt
Spotify in der Pflicht
Die Plattform hat zwar angefangen, gegen KI-Spam vorzugehen. Aber solange jeder ohne Verifizierung Musik unter beliebigen Namen hochladen kann, bleibt das System ein Selbstbedienungsladen für Betrüger. Echte Identitätsprüfung bei Uploads? Fehlanzeige.