Verlag wirft Horror-Buch wegen KI-Verdacht raus
Die Hachette Book Group hat einen beliebten Horrorroman aus dem Programm genommen. Grund: Der Verdacht, dass die Autorin KI beim Schreiben eingesetzt hat.
Was passiert ist
Der Verlag zieht Konsequenzen — und zwar harte. Das Buch fliegt aus dem Sortiment, die Autorin steht am Pranger. Hachette macht damit klar: KI-generierte Texte haben in ihrem Katalog nichts verloren.
Die Gretchenfrage der Branche
Darf ein Autor KI nutzen — als Werkzeug, als Co-Autor, als Ghostwriter? Die Verlage sind gespalten. Hachette hat sich entschieden: Nein.
💡 Was das bedeutet
Das ist kein Einzelfall, das ist ein Präzedenzfall. Wenn einer der größten Verlage der Welt ein bereits veröffentlichtes Buch zurückzieht, sendet das ein Signal an jede Autorin und jeden Autor mit ChatGPT-Tab im Browser. Wer erwischt wird, verliert nicht nur den Deal — sondern den Ruf.
✅ Pro
- Verlag schützt menschliche Kreativarbeit
- Klare Linie statt schwammiger Richtlinien
- Signal an die gesamte Branche
❌ Con
- Wo genau ist die Grenze? Lektorat-KI? Recherche-KI?
- Nachweis von KI-Nutzung ist technisch wacklig
- Autorin wird bestraft, bevor Fakten geklärt sind
Das eigentliche Problem
Kein KI-Detektor ist zuverlässig genug, um vor Gericht zu bestehen. Verlage müssen sich auf Vertragsklauseln und Ehrlichkeit verlassen. Beides ist dünn.