🚨 KI-CRIME
KI-Halluzinationen landen Anwälte vor Gericht
Berliner Anwälte haben ChatGPT für ihre Arbeit benutzt. Jetzt müssen sie sich vor dem Kammergericht verantworten. Die KI erfand Urteile – und die Juristen fielen darauf rein.
Berliner Anwälte haben ChatGPT für ihre Arbeit benutzt. Jetzt müssen sie sich vor dem Kammergericht verantworten. Die KI erfand Urteile – und die Juristen fielen darauf rein.
Was passiert ist
In Rechtsmittelschriftsätzen tauchten erfundene Aktenzeichen und nicht-existente Gerichtsentscheidungen auf. Die Anwälte gaben zu, die Texte von einer KI generiert und nicht ausreichend geprüft zu haben. Das Kammergericht Berlin hat dies nun gerügt.
💡 Was das bedeutet
Das ist kein kleiner Fehler. Es untergräbt das Vertrauen in den Rechtsverkehr. Gerichte müssen sich auf die Richtigkeit der vorgetragenen Fakten verlassen können. KI ist ein Werkzeug, keine
- Fehler:** Erfundene Aktenzeichen und Urteile in Schriftsätzen
- Ursache:** Ungeprüfte Übernahme von KI-generierten Texten
- Konsequenz:** Gerichtliche Rüge für die beteiligten Anwälte
“
Die anwaltliche Prüfungspflicht erstreckt sich auch auf von Künstlicher Intelligenz generierte Inhalte.— Kammergericht Berlin
🤖 NERDMAN-URTEIL
Wer seine juristische Hausaufgaben von einer Halluzinations-Maschine machen lässt, gehört nicht vor Gericht – sondern zurück auf die Schulbank.
Quelle: Heise KI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.