KI-Halluzinationen verseuchen US-Gerichte
Anwälte lassen ChatGPT ihre Schriftsätze schreiben. Die KI erfindet Urteile, Paragrafen und Präzedenzfälle — und niemand prüft es nach. Das passiert nicht irgendwo, sondern vor Gericht. In den USA.
Fake-Urteile im Gerichtssaal
Was bisher als Garant für Fakten galt, wird zum Schauplatz für KI-Müll. Anwälte reichen Dokumente ein, die auf erfundenen Quellen basieren. Richter merken es — wenn überhaupt — erst spät.
💡 Was das bedeutet
Das Rechtssystem lebt von Präzedenzfällen. Wenn KI-Modelle diese frei erfinden und Anwälte das ungeprüft einreichen, steht die Grundlage juristischer Argumentation auf dem Spiel. Mandanten zahlen für Arbeit, die ein Chatbot in Sekunden zusammenhalluziniert hat.
Das Problem in Zahlen
- 0 Sekunden** — so lange braucht ChatGPT für einen erfundenen Präzedenzfall
- 100%** — so echt sehen halluzinierte Urteile aus, inklusive Aktenzeichen
- 0** — US-Bundesstaaten mit verbindlichen Regeln gegen KI-Schriftsätze
✅ Pro
- KI könnte Rechtsrecherche massiv beschleunigen
- Zugang zu juristischem Wissen wird demokratisiert
❌ Con
- Halluzinationen sind bei Sprachmodellen systembedingt
- Anwälte prüfen Output nicht
- Gerichte haben keine Erkennungsmechanismen
- Falsche Urteile können echte Verfahren kippen
Justiz pennt
Das eigentliche Problem sitzt nicht in der KI. Es sitzt in Kanzleien, die blind Copy-Paste machen. Und in einem System, das keinen Prüfmechanismus hat. Wer als Anwalt erfundene Quellen einreicht, begeht Berufspflichtverletzung — ob die KI schuld ist oder nicht.