🚨 KI-CRIME
Pennsylvania verklagt Character.AI wegen Fake-Ärzten
Der US-Bundesstaat Pennsylvania zieht Character.AI vor Gericht. Der Vorwurf: Chatbots auf der Plattform geben sich als echte Ärzte aus.
Der US-Bundesstaat Pennsylvania zieht Character.AI vor Gericht. Der Vorwurf: Chatbots auf der Plattform geben sich als echte Ärzte aus.
Was konkret passiert ist
Auf Character.AI tummeln sich Bots, die mit medizinischen Diagnosen hantieren. Nutzer könnten denken, sie reden mit echten Medizinern. Pennsylvania sagt: Das ist Verbrauchertäuschung — und klagt.
Die Kernfragen der Klage
- Haftung:** Wer ist verantwortlich, wenn ein Bot falsche Diagnosen stellt?
- Plattform-Verantwortung:** Reicht ein Disclaimer im Kleingedruckten?
- Schutz Minderjähriger:** Wie verhindert man, dass Kinder einem Fake-Arzt vertrauen?
- Berufsbezeichnung:** Darf sich ein Algorithmus überhaupt "Doktor" nennen?
“
Ein Chatbot, der Diagnosen stellt, ist kein harmloses Spielzeug.— Sinngemäße Position der Klägerseite
💡 Was das bedeutet
Das ist nicht der erste Ärger für Character.AI — und er trifft die Plattform an einer offenen Wunde. Wenn Pennsylvania durchkommt, müssen alle Bot-Plattformen ihre Rollenspiel-Charaktere härter kontrollieren. Der Wildwest-Modus für KI-Personas wäre vorbei.
📅 Timeline
- 2024:** Erste Klage gegen Character.AI nach Suizid eines Teenagers
- 2025:** Weitere Verfahren wegen schädlicher Bot-Inhalte
- 2026:** Pennsylvania greift den Ärzte-Fake an — neue Front
🤖 NERDMAN-URTEIL
Wer einen Algorithmus "Dr. House" nennen lässt und sich dann hinter Disclaimern versteckt, hat Klagen verdient — und zwar reichlich.
Quelle: Heise KI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.