Anthropic und OpenAI streiten über KI-Haftung
OpenAI sagt Ja, Anthropic sagt Nein. Ein Gesetzentwurf in Illinois spaltet die zwei größten KI-Labs der Welt — und zeigt, wie unterschiedlich sie über Verantwortung denken.
Worum es geht
Illinois will ein Gesetz, das KI-Unternehmen weitgehend von der Haftung befreit. Selbst bei Massentoten oder Finanzkatastrophen durch KI-Systeme könnten die Labs glimpflich davonkommen. OpenAI findet das gut. Anthropic nicht.
Die Positionen
- OpenAI:** Unterstützt den Gesetzentwurf. Weniger Haftung = mehr Innovation, so die Logik.
- Anthropic:** Lehnt den Entwurf ab. Wer gefährliche Systeme baut, muss auch dafür geradestehen.
- Illinois:** Will sich als KI-freundlicher Standort positionieren. Koste es, was es wolle — im Wortsinn.
Was das bedeutet
Das ist kein technischer Streit. Das ist ein Grundsatzkonflikt. Wer zahlt, wenn eine KI Mist baut — der Nutzer, der Staat oder das Lab? OpenAI will den Freifahrtschein. Anthropic sagt: Ohne Haftung kein Anreiz für Sicherheit.
Pro (Anthropics Position)
- Haftung zwingt Labs zu besseren Sicherheitsstandards
- Verbraucher behalten Rechtsweg bei Schäden
- Signal an die Branche: Verantwortung ernst nehmen
Con (OpenAIs Position)
- Strenge Haftung bremst Entwicklung
- Startups könnten sich Rechtsrisiken nicht leisten
- USA verliert Wettbewerbsvorteil gegenüber China
Der wahre Kern
Anthropic wurde gegründet, weil Dario Amodei OpenAI für zu lax hielt. Dieser Streit ist die politische Version genau dieses Bruchs. Zwei Ex-Kollegen, zwei Weltbilder — jetzt auch im Lobbyismus.