Wenn der Richter halluziniert: US-Gerichte erstmals bei KI-Einsatz erwischt
© Sense / Adobe Stock

Anwältinnen und Anwälte, die in ihren Schriftsätzen auf frei erfundene Urteile hereinfallen und sich damit vor Gericht blamieren, gibt es inzwischen häufiger. Doch in den USA wurden jetzt erstmals auch Gerichte beim KI-Einsatz erwischt.

Vor US-amerikanischen Gerichten haben sich inzwischen selbst angesehene Großkanzleien mit KI-generierten Schriftsätzen blamiert. Aufgefallen ist das meistens, weil die zitierten Gerichtsentscheidungen und Aktenzeichen nicht existierten – die KI hatte sie halluziniert, wie es heißt. Der Jurist und Journalist Damien Charlotin hat auf seiner Website über 300 solcher Fälle gesammelt – sortiert nach Land, Gericht, dem eingesetzten KI-Tool sowie weiteren Informationen. In Deutschland ist erst ein einziger Fall bekannt. Spitzenreiter der Tabelle sind die USA mit inzwischen fast 200 KI-Halluzinationen vor Gericht.

In den allermeisten Fällen wurden die KI-generierten Schriftsätze dabei von Anwältinnen und Anwälten der klagenden oder beklagten Partei eingereicht. Doch lediglich in einem kleinen Teil der Fälle sanktionierten die Gerichte fehlerhafte Schriftsätze mit einer Strafzahlung ("monetary sanction").

Kläger und Beklagter falsch, Präzedenzfälle erfunden, Tatbestände halluziniert

Inzwischen experimentieren aber auch Richterinnen und Richter in den USA vermehrt mit generativer KI – allerdings nicht immer erfolgreich. Ein Bundesrichter in New Jersey musste eine Anordnung neu ausstellen, nachdem ein Strafverteidiger das Gericht auf zahlreiche Fehler hingewiesen hatte. Gegenüber Reuters gab eine mit der Sache vertraute Person an, dass bei der Recherche für die Entscheidung KI eingesetzt worden sei. Der Entscheidungsentwurf sei dann versehentlich vor dem Abschluss des Prüfverfahrens veröffentlicht worden.

In Mississippi tauchte unterdessen eine Anordnung auf, die unter anderem die falschen Parteien enthielt und Anschuldigungen aufführte, die nicht in den Schriftsätzen enthalten waren. Der zuständige US-Bezirksrichter weigerte sich, zu erklären, woher diese Fehler stammten. Aufgefallen waren die mutmaßlichen Halluzinationen der Staatsanwaltschaft. Auf Nachfrage erklärte der Bezirksrichter lediglich, dass Richterinnen und Richter befugt seien, Schreibfehler und Flüchtigkeitsfehler noch im Nachhinein zu korrigieren, ansonsten seien keine weiteren Maßnahmen erforderlich. Zudem lehnte er es ab, seine ursprüngliche fehlerhafte Anordnung im öffentlichen Gerichtsregister zugänglich zu machen.

In beiden Fällen ist nicht nachgewiesen, dass die Gerichte tatsächlich auf KI-Halluzinationen hereingefallen sind – es ist aber sehr wahrscheinlich.

Messen mit zweierlei Maß?

In der amerikanischen Richterschaft wird die Gefahr von KI-Halluzinationen in der Justiz offenbar noch recht unterschiedlich wahrgenommen. Xavier Rodriguez, selbst Richter in Texas, ist der Ansicht, dass viele seiner Kolleginnen und Kollegen beim Einsatz von KI "überreagieren". Gegenüber dem MIT Technology Review scherzte er: "Richterinnen und Richter haben schon lange vor KI halluziniert." Er selbst setze KI ein, um Fälle zusammenzufassen, Beteiligte zu identifizieren und einen Zeitstrahl des Geschehens zu erstellen. Gemeinsam mit anderen Richterinnen und Richtern hat Rodrigues einen Leitfaden zum Einsatz von KI an Gerichten erstellt. Rodriguez‘ Richterkollegin aus Kalifornien, Allison Goddard, ist der Meinung: "KI ist so etwas wie ein Denkpartner und bringt eine Perspektive ein, die man vielleicht selbst nicht in Betracht gezogen hätte."

Richter Scott Schlegel aus Louisiana äußert sich in dem Artikel hingegen deutlich kritischer über den KI-Trend. Er spricht von einer "Krise, die nur darauf wartet, zu passieren". Während Anwältinnen und Anwälte sanktioniert würden, hätten Richterinnen und Richter freie Hand. "Wenn das Gericht einen Fehler macht, ist das das Gesetz. Ich kann nicht ein oder zwei Monate später sagen: 'Ups, tut mir leid' und meine Entscheidung rückgängig machen. So funktioniert das nicht." Derartige Fehler seien geeignet, das Vertrauen der Öffentlichkeit in die Justiz zu untergraben. Seine Empfehlung: Juristinnen und Juristen sollten Texte, die mit Hilfe von KI entstanden seien, so sorgfältig kontrollieren wie die Arbeit eines Associate im ersten Jahr.

Redaktion beck-aktuell, Dr. Jannina Schäffer, 25. August 2025.

Mehr zum Thema