Wenn ChatGPT zum Richter wird – und der Anwalt zahlt die Zeche

Veröffentlicht am: 10.Juni.2025Kategorien: Arbeitswelt, RechtlichesLesezeit: 2 Min.
Avatar-Foto
Hakan Tok schreibt Artikel zu technischen Themen im Blog Recht 24/7 Love & Law.

Fantasiefall vor Gericht: Anwalt zitiert „erfundenes“ Urteil

Man stelle sich vor: Ein Anwalt reicht einen Schriftsatz bei Gericht ein – gespickt mit Zitaten und Bezügen auf ein angebliches Gerichtsurteil. Alles klingt korrekt, sauber formatiert, juristisch durchdacht. Das Problem? Das zitierte Urteil existiert nicht. Es wurde von ChatGPT erfunden – und der Anwalt hat es nicht überprüft.

Genau das ist jetzt im US-Bundesstaat Utah passiert. Das dortige Court of Appeals (Berufungsgericht) entschied, dass der betroffene Anwalt die Kosten für den Schaden tragen muss, den er durch die Nutzung von KI-generierten Fehlinformationen verursacht hat. Insgesamt muss er die Gegenseite entschädigen, die eigenen Mandanten schadlos stellen und 1.000 US-Dollar an eine gemeinnützige juristische Organisation zahlen.

Verantwortung abgeschoben – trotzdem verurteilt

Zur Verteidigung erklärte der Anwalt, ein nicht zugelassener juristischer Mitarbeiter habe den Schriftsatz verfasst. Er selbst habe den Text nicht ausreichend geprüft. Doch das Gericht ließ das nicht gelten: Ein Anwalt bleibt verantwortlich für das, was in seinem Namen eingereicht wird – auch wenn ein Mitarbeiter oder ein KI-Tool mitarbeitet.

Die Gegenseite hatte den Fehler entdeckt, weil sie – wie es gute Anwälte eben tun – die angegebenen Urteile prüfen wollte. Als sich das angeblich zitierte Urteil in keiner juristischen Datenbank fand, flog der Schwindel auf. Ein klassischer Fall von „Copy, Paste, Blamage“.

Kein Einzelfall: KI im Gerichtssaal auf dem Prüfstand

Zwar ist dies der erste dokumentierte Fall dieser Art in Utah, aber weltweit ist es längst kein Einzelfall mehr. Vor zwei Jahren gab es bereits einen ähnlichen Fall in New York, bei dem ein Anwalt ausgerechnet ChatGPT als Rechtsquelle nutzte – mit erfundenen Urteilen inklusive. Ein anderer „Sparfuchs“ verzichtete gleich ganz auf menschliche Hilfe und ließ eine KI in Form eines Avatars vor Gericht sprechen. Ergebnis: nicht überzeugend.

Solche Vorfälle werfen grundsätzliche Fragen auf: Wie weit darf KI in der Rechtsprechung eingesetzt werden? Wo endet die Effizienz – und wo beginnt die Verantwortungslosigkeit?

KI ist kein Freifahrtschein für Faulheit

Dass ein Anwalt blind auf ChatGPT vertraut, ist nicht nur fahrlässig, sondern auch berufsrechtlich gefährlich. Die Idee, sich mit einer technischen Abkürzung Zeit zu sparen, endet hier im Gegenteil: Kosten, Blamage und ein ordentlicher Schuss vor den Bug.

KI kann viel – aber sie kann nicht denken, nicht haften und nicht prüfen. Dafür braucht es immer noch echte Jurist*innen mit Augenmaß und Verantwortungsbewusstsein. Wer das nicht liefert, sollte sich überlegen, ob er im Gerichtssaal überhaupt noch etwas zu suchen hat. ChatGPT ist kein Ersatz für gesunden Menschenverstand – schon gar nicht im Namen des Rechts.

Du möchtest wissen, wie sich KI auf deine rechtlichen Herausforderungen auswirkt? Buche jetzt eine Beratung und sichere deine Zukunft in der digitalen Ära!

Zum Festpreis 169 EURO (brutto)