🔥 HOT NEWS
Reddit jagt jetzt seine eigenen Bots
Steve Huffman hat genug. Der Reddit-CEO kündigte heute an: Accounts mit "automatisiertem oder verdächtigem Verhalten" müssen künftig beweisen, dass ein Mensch dahintersteckt.
Steve Huffman hat genug. Der Reddit-CEO kündigte heute an: Accounts mit "automatisiertem oder verdächtigem Verhalten" müssen künftig beweisen, dass ein Mensch dahintersteckt.
Was konkret passiert
Reddit führt eine Human-Verification ein. Wer sich auffällig verhält — zu viel postet, zu schnell kommentiert, Muster zeigt — muss durch einen Prüfprozess. Bestehst du nicht, fliegst du raus.
“
Wir wollen sicherstellen, dass ihr auf Reddit wisst, ob ihr mit einem Menschen redet oder nicht.— Steve Huffman, CEO Reddit
Die Lage ist ernst
- KI-Bots** fluten Social Media in einem Ausmaß, das die Plattformen kaum noch kontrollieren können
- Reddit** verkauft gleichzeitig seine Daten an KI-Firmen zum Training — und muss jetzt die Geister bekämpfen, die es selbst füttert
- "Fishy behavior"** — Reddit definiert selbst, was verdächtig ist. Keine klaren Regeln, volle Willkür
💡 Was das bedeutet
Reddit zieht als eine der ersten großen Plattformen die Reißleine. Das Signal ist klar: Die Bot-Flut durch billige KI-Modelle wird zum existenziellen Problem für jede Community, die auf echte Diskussionen angewiesen ist. Wenn Reddit das nicht in den Griff kriegt, wird die Plattform wertlos — für User und für die KI-Firmen, die Reddit-Daten kaufen.
✅ Pro
- Endlich Maßnahmen gegen die Bot-Schwemme
- User wissen, ob sie mit Menschen reden
- Schützt die Qualität der Diskussionen
❌ Con
- Reddit entscheidet allein, was "fishy" ist
- Falsch-Positive treffen echte User
- Der Konzern verdient selbst an KI-Training mit Reddit-Daten
🤖 NERDMAN-URTEIL
Reddit verkauft seine Daten an die Bot-Industrie und spielt dann den Türsteher — das ist wie Waffen liefern und sich über den Krieg beschweren.
Quelle: Ars Technica · Erschienen: 25. Mär 2026 · 20:04
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.