Wikipedia schmeißt KI-Texte raus
Die größte Enzyklopädie der Welt zieht die Reißleine. Wikipedia verbietet ab sofort KI-generierte Inhalte — auf allen 7,1 Millionen englischsprachigen Artikeln.
Was konkret passiert ist
Wikipedia hat seine Richtlinien geändert. Large Language Models dürfen nicht mehr zum Schreiben oder Umschreiben von Artikeln verwendet werden. Begründung: LLM-Inhalte verstoßen "häufig" gegen die Kernprinzipien der Plattform.
Zwei Ausnahmen bleiben
- Übersetzungen:** KI darf weiterhin beim Übersetzen von Artikeln helfen
- Kleine Korrekturen:** Minimale Copy-Edits mit KI-Unterstützung sind erlaubt
Was das bedeutet
Wikipedia sagt damit: Menschliches Wissen braucht menschliche Autoren. Das ist eine Ansage an jede Plattform, die still zuschaut, wie LLM-Texte ihre Inhalte fluten. Wenn selbst die offenste Enzyklopädie der Welt Grenzen zieht, wird es eng für die "KI macht alles besser"-Fraktion.
Zahlenbox
- 7,1 Mio.** — englischsprachige Wikipedia-Artikel
- 300+** — Sprachen auf Wikipedia
- 0** — Toleranz für LLM-generierte Artikel ab jetzt
Der Elefant im Raum
Die Ironie ist dick. OpenAI, Google und Anthropic haben Wikipedia-Daten tonnenweise zum Training genutzt. Jetzt sagt Wikipedia: Eure Outputs wollen wir hier nicht. Das ist, als würde eine Kuh die Milch verbieten.
Durchsetzen wird das Ganze trotzdem schwer. Wer kontrolliert, ob ein Edit von einem Menschen oder von Claude kommt? Wikipedia setzt auf Community-Kontrolle. Ob das reicht, wenn jeder Zwölfjährige ChatGPT im Browser hat — fraglich.