Thomson Reuters baut eigenes Jura-LLM
Thomson Reuters macht ernst. Der Daten-Gigant entwickelt ein eigenes Large Language Model namens „Thomson" — speziell trainiert auf juristische Inhalte. Launch: diesen Sommer.
Was wir wissen
- Name:** Thomson
- Basis:** Open-Source-Modelle, feingetunt mit TR-eigenen Rechtsdaten
- Datenvorteil:** Zugriff auf einen der größten juristischen Datenbestände der Welt (Westlaw, Practical Law, etc.)
- Release:** Sommer 2026
- Status:** Angekündigt, aber noch kein öffentlicher Zugang oder Demo
Warum TR das selbst baut
Die Logik ist simpel: Wer die Daten hat, will auch das Modell kontrollieren. Thomson Reuters sitzt auf Jahrzehnten juristischer Dokumente, Urteile und Fachliteratur. Statt diese Goldmine an OpenAI oder Google zu verfüttern, trainieren sie jetzt selbst.
Open-Source als Basis hält die Kosten unten. Die eigenen Daten obendrauf machen den Unterschied.
✅ Pro
- Riesiger juristischer Datenschatz als Trainingsbasis
- Volle Kontrolle über Modell und Output
- Open-Source-Fundament spart Entwicklungskosten
❌ Con
- Noch kein Release, keine Benchmarks, keine Demo
- Legal Tech ist ein Minenfeld für Halluzinationen
- Juristen sind die härteste Zielgruppe — ein Fehler reicht
💡 Was das bedeutet
Für Kanzleien und Rechtsabteilungen wird es ernst. Wenn TR ein brauchbares Jura-LLM liefert, wird es tief in Westlaw und CoCounsel integriert — und damit quasi Pflichtprogramm für jeden TR-Kunden. Die Konkurrenz von Harvey, Casetext und Co. bekommt ein massives Distributionsproblem.