Top-Kanzlei blamiert sich mit KI-Lügen vor Gericht
Eine der renommiertesten Anwaltskanzleien der USA musste sich bei einem Insolvenzrichter entschuldigen. Der Grund: KI-generierte Halluzinationen in Gerichtsunterlagen.
Was passiert ist
Die Kanzlei reichte Schriftsätze ein, die von einer KI erstellte oder geprüfte Inhalte enthielten. Problem: Die KI hat Fakten erfunden. Frei erfundene Zitate, falsche Verweise, kompletter Nonsens — eingereicht bei einem echten Gericht in einem echten Insolvenzverfahren.
Was das bedeutet
Das ist kein Anfänger-Fehler eines Einzelanwalts. Hier hat eine Top-Kanzlei versagt — eine Firma, die pro Stunde vierstellige Beträge abrechnet. Wenn selbst die Elite der Anwaltswelt blind auf KI-Output vertraut, hat die Branche ein systemisches Problem. Richter in den USA reagieren zunehmend mit Sanktionen und Pflicht-Offenlegungen für KI-Nutzung.
📅 Timeline
- 2023:** Anwalt Steven Schwartz reicht ChatGPT-erfundene Urteile bei New Yorker Gericht ein — der erste große Skandal
- 2024:** Dutzende weitere Fälle weltweit, erste Gerichte führen KI-Offenlegungspflichten ein
- 2025:** Kanzleien werben offensiv mit KI-Integration
- 2026:** Jetzt erwischt es eine Top-Kanzlei vor einem Insolvenzrichter
✅ Pro
- KI kann Anwaltsarbeit beschleunigen
- Recherche-Aufwand sinkt massiv
❌ Con
- Halluzinationen sind bei Legal-Anwendungen fatal
- Kein LLM unterscheidet zuverlässig Fakt von Fiktion
- Anwälte haften persönlich — die KI nicht
Die unbequeme Wahrheit
Jede Kanzlei, die KI einsetzt, ohne jeden Output manuell zu prüfen, spielt russisches Roulette mit ihrer Zulassung. Ein LLM ist kein Jurist. Es hat kein Verständnis von Wahrheit. Es produziert plausibel klingenden Text — ob der stimmt, ist ihm egal.