Kindesmissbrauch-Seiten verdoppeln sich in einem Jahr
Das Internet wird für Kinder gefährlicher — und zwar messbar. Die Zahl der Webseiten, die illegal Zugang zu Bildern sexuellen Kindesmissbrauchs verkaufen, hat sich 2025 laut der zuständigen britischen Behörde mehr als verdoppelt.
Die Fakten
Die britische Aufsichtsbehörde für das Aufspüren und Entfernen von CSAM-Material (Child Sexual Abuse Material) hat neue Forschungsergebnisse veröffentlicht. Das Ergebnis ist eindeutig — und erschreckend.
Zahlenbox
- 2×** — so stark stieg die Zahl der CSAM-Verkaufsseiten in nur einem Jahr
- 2025** — das Jahr, in dem die Verdopplung dokumentiert wurde
- UK** — das Land, dessen Behörde die Daten erhoben hat
Warum KI hier eine Rolle spielt
Generative KI-Tools machen die Produktion von Missbrauchsmaterial einfacher und billiger als je zuvor. Fotorealistische Bilder lassen sich mit Open-Source-Modellen in Sekunden erzeugen. Das senkt die Einstiegshürde für Täter massiv — und erklärt den explosionsartigen Anstieg.
💡 Was das bedeutet
Die Verdopplung ist kein statistischer Ausreißer. Sie zeigt, dass die bisherigen Maßnahmen gegen CSAM-Verbreitung nicht mithalten — schon gar nicht gegen KI-generiertes Material. Plattformen, Behörden und KI-Entwickler müssen hier deutlich schneller handeln, bevor aus der Verdopplung eine Verzehnfachung wird.
Pro (was getan wird)
- UK hat eine spezialisierte Behörde für CSAM-Erkennung
- Große Plattformen setzen Hash-Matching ein
- EU und USA verschärfen Gesetze
Con (was fehlt)
- KI-generiertes Material wird von klassischen Erkennungssystemen oft nicht erfasst
- Open-Source-Modelle sind kaum regulierbar
- Täter wechseln schneller die Infrastruktur als Behörden reagieren können