KI-Schriftsatz: Anwalt blamiert sich vor Gericht
© Adobe Stock / stokkete

Aufsätze und Kommentarfundstellen, die es nicht gibt, Rechtsprechung zu völlig anderen Sachverhalten: Ein Anwalt hatte einen offenkundig mit KI geschriebenen Schriftsatz eingereicht – fürs AG Köln ein Berufsrechtsverstoß. Jetzt diskutieren Juristen: Ist das so? Und hat er sich gar strafbar gemacht?

Bis zu Seite acht des Beschlusses liest sich die Entscheidung das AG Köln in einer Familiensache (Beschluss vom 02.07.2025 - 312 F 130/25) wie eine Allerweltsgeschichte. Es geht um Sorgerecht, Wechselmodell und Kindeswohl – für die Beteiligten enorm wichtig, für alle anderen nicht der Rede wert. Doch dann lässt das Gericht plötzlich eine Bombe platzen: "Die weiteren von dem Antragsgegnervertreter im Schriftsatz vom 30.06.2025 genannten Voraussetzungen stammen nicht aus der zitieren Entscheidung und sind offenbar mittels künstlicher Intelligenz generiert und frei erfunden" schreibt das Gericht in dem Beschluss, der beck-aktuell vorliegt. "Auch die genannten Fundstellen sind frei erfunden."

Was war geschehen? Der Rechtsanwalt hatte offenbar ungeprüft einen KI-Schriftsatz übernommen. Das Ergebnis: Zahlreiche Fundstellen existierten entweder gar nicht oder hatten einen völlig anderen Inhalt. So wurde ein Autor dem Münchner Kommentar zum BGB aus dem Verlag C.H. Beck zugeschrieben, der aber stattdessen den juris-PraxisKommentar BGB herausgibt. Auch sonst stimmte an der Fundstelle anscheinend nichts, die genannte Randziffer existiere nicht einmal, führte das AG aus. Die zitierte Monografie "Brons, Kindeswohl und Elternverantwortung, 2013" habe das Gericht ebenfalls nicht finden können. Das galt auch für weitere Fundstellen in Zeitschriften, die entweder andere als die genannten Aufsätze enthielten oder schlicht frei erfunden waren, wie das AG ausführte. Eine Fundstelle aus der FamRZ enthielt statt familienrechtlicher Themen eine Entscheidung des OLG Düsseldorf zum Zustimmungserfordernis der Ersatznacherben zur Löschung eines Nacherbenvermerks, bzw. nachfolgend eine des KG zur Grundbuchberichtigung aufgrund von Teilerbscheinen.

"Schriftsatz mit über 90% Wahrscheinlichkeit mit KI erstellt"

Kurz gesagt: Der Schriftsatz war schlicht unbrauchbar und irreführend, wie das AG klarstellte. Ursache waren vermutlich eine KI ohne Zugriff auf eine juristische Fachdatenbank und ein schlechter Prompt, wie Frank Siegburg, Rechtsanwalt und Partner der Kanzlei Hecker Werner Himmelreich, in einem LinkedIn-Post erklärte. Sein Kanzleikollege hatte in dem Verfahren die Gegenseite vertreten und Siegburg, der gegenwärtig selbst an KI-Lösungen für seine Kanzlei arbeitet, auf den Beschluss hingewiesen. Dieser hatte dann auf dem Netzwerk über den Beschluss berichtet und damit für rege Diskussionen unter Juristinnen und Juristen gesorgt.

In seinem Post wies Siegburg darauf hin, dass der Anwalt der Gegenseite offenbar schon versäumt hatte, die KI explizit mit einem Fließtext zu beauftragen, sodass sich der Schriftsatz eher als Ansammlung von Spiegelstrichen darstellte – typisch für ein KI-Produkt, meint Siegburg. Zur Frage der KI-Urheberschaft hatte er nach eigenem Bekunden auch selbst die KI befragt – jedoch die von seiner Kanzlei inhouse genutzte. Ergebnis: "Die bei uns in der Testphase befindliche KI sagt, dass der Schriftsatz mit über 90% Wahrscheinlichkeit mit KI erstellt wurde, die keinen Zugriff auf eine fachliche Datenbank hat. Die Fundstellen wurden zu 100% von einer KI halluziniert."

In den vergangenen Monaten sind immer wieder Fälle sogenannter "Halluzinationen" bekannt geworden – Unwahrheiten, die von der KI als Fakten präsentiert werden. So fiel etwa in den USA ein Anwalt auf von ChatGPT erfundene Urteile herein und übernahm sie in seinen Schriftsatz  – was das Gerichte allerdings bemerkte. Dass KI-Modelle in rechtlichen Angelegenheiten immer wieder Fehlinformationen auswerfen, ist international bekannt. Eine Studie der Stanford-Universität aus dem vergangenen Jahr bewertete die am Markt verfügbaren Tools damals noch als unzuverlässig. Inzwischen hat die amerikanische Anwaltskammer, die American Bar Association, Leitlinien für die KI-Nutzung durch Anwältinnen und Anwälte erstellt – einschließlich einer Wahrheits- und Sorgfaltspflicht.

AG: "Schadet dem Ansehen des Rechtsstaates und der Anwaltschaft"

Der mit der Familiensache befasste Kölner Amtsrichter hatte offenbar wenig Verständnis für schlampige und von Unwahrheiten durchzogene Eingaben und unterstrich sein Missfallen im Beschluss mit deutlichen Worten: "Der Verfahrensbevollmächtige hat derartige Ausführungen für die Zukunft zu unterlassen, da sie die Rechtsfindung erschweren, den unkundigen Leser in die Irre führen und das Ansehen des Rechtsstaates und insbesondere der Anwaltschaft empfindlich schädigen."

Der Richter ließ es sich auch nicht nehmen, auf Konsequenzen hinzuweisen, die ein solcher KI-Schriftsatz aus seiner Sicht für Anwältinnen und Anwälte haben könne: "Er wird darauf hingewiesen, dass es sich um einen Verstoß gegen § 43a Abs. 3 BRAO handelt, wenn ein Rechtsanwalt bewusst Unwahrheiten verbreitet. Hierzu gehört der wissentlich falsche Vortrag über Inhalt und Aussagen von Gesetzen und Urteilen", so das AG. "Der Verfahrensbevollmächtige ist Fachanwalt für Familienrecht und sollte die Rechtslage kennen."

Wirklich ein Berufsrechtsverstoß?

Die vom AG zitierte Norm schreibt vor: "Der Rechtsanwalt darf sich bei seiner Berufsausübung nicht unsachlich verhalten. Unsachlich ist insbesondere ein Verhalten, bei dem es sich um die bewußte Verbreitung von Unwahrheiten oder solche herabsetzenden Äußerungen handelt, zu denen andere Beteiligte oder der Verfahrensverlauf keinen Anlaß gegeben haben."

Um die Bedeutung dieser Zeilen wird unter Berufsrechtlerinnen und -rechtlern gestritten: Manche sehen darin eine anwaltliche Wahrheitspflicht begründet, andere wollen die Grenze zur Unsachlichkeit erst bei strafrechtlich relevanten Äußerungen ziehen, etwa im Bereich der Beleidigung (§ 185 StGB). Allerdings dreht sich die Diskussion bislang vornehmlich um unwahre Tatsachenbehauptungen, da es naturgemäß keine unwahren Rechtsauffassungen gibt. Wie sich dazwischen evident falsche Literatur- und Rechtsprechungsbelege zu Rechtsauffassungen einordnen lassen, ist weniger ergründet. 

Was in dem Kontext "bewusst" bedeutet, dürfte ebenfalls noch zu diskutieren sein. Schlampig geschriebene Schriftsätze gab es auch schon vor dem KI-Zeitalter, Blindzitate und Co. waren dabei schon immer ein Ärgernis für Gerichte und Gegenseite. Soweit ersichtlich, wird für eine "bewusste" Verbreitung von Unwahrheiten bislang überwiegend direkter Vorsatz gefordert. Ein Anwalt, der eine Behauptung aufstellt, die er nur für möglicherweise unwahr hält, verstieße damit noch nicht gegen die berufsrechtliche Wahrheitspflicht, selbst wenn er dies billigend in Kauf nähme.

Zudem ist, wie der Rechtsanwalt und KI-Experte Tom Braegelmann in einem Fachbeitrag in der Zeitschrift für das Recht der Digitalisierung (RDi) erläutert, die wie beck-aktuell zum Verlag C.H. Beck gehört, für die rechtliche Bewertung der Tatsachen eines Falles das Gericht zuständig – iura novit curia. Insofern beschränkt sich die Rolle von Anwältinnen und Anwälten traditionell darauf, die für den Fall entscheidenden Fakten zu schildern. Ihre rechtlichen Ausführungen dazu seien eher eine Hilfestellung und natürlich ein Überzeugungsversuch. Auch die zivilprozessuale Wahrheitspflicht aus § 138 ZPO beschränke sich daher auf Tatsachen, so Braegelmann.

KI-Blindzitate als Prozessbetrug?

Doch unter dem LinkedIn-Post diskutieren Juristinnen und Juristen sogar noch härtere, nämlich strafrechtliche Konsequenzen eines solchen Schriftsatzes. Könnte ein ungeprüft eingereichter KI-Schriftsatz einen (versuchten) Prozessbetrug darstellen? Hierfür würde subjektiv schon bedingter Täuschungsvorsatz ausreichen, der – so manche Kommentatoren, die sich in dem sozialen Netzwerk zu Wort melden –vorliegen könnte, wenn KI-generierte Schriftsätze eingereicht werden, ohne die Fundstellen vorher zu prüfen.

Anders dürfte das zu sehen sein, wenn man Maßstäbe des OLG Koblenz zugrunde legt, die Braegelmann in der RDi ausführt. Die Entscheidung, auf die er abstellt, stammt aus 2001 und damit einer Zeit lange vor der Erfindung dessen, was wir heute unter Künstlicher Intelligenz verstehen. Doch die Grundsätze, meint Braegelmann, ließen sich übertragen. In dem Fall ging es damals um einen Rechtsanwalt, der vor Gericht behauptet hatte, seine Rechtsansicht sei in diversen Gerichtsentscheidungen geteilt worden – was nicht stimmte und in der Tat ein Strafverfahren wegen Prozessbetrugs nach sich zog. Doch das OLG erkannte kein strafbares Verhalten des Anwalts, da eine falsche Behauptung schon objektiv nicht geeignet sei, beim Gericht einen Irrtum hervorzurufen, da dieses ohnehin verpflichtet sei, den Sachverhalt in rechtlicher Hinsicht selbst zu prüfen. "Sollte der Beschuldigte die Absicht gehabt haben, einen Prozessbetrug zu begehen, wäre er einem sog. umgekehrten Subsumtionsirrtum erlegen" schrieb das Gericht. "Die wahnhafte Vorstellung, ein bestimmtes Verhalten sei strafbar, bleibt straflos."

Unabhängig von persönlichen Konsequenzen dürften aber falsche Zitate in Schriftsätzen, so sie denn auffallen, jedenfalls dem eigenen Fall vor Gericht schaden. Doch fallen sie überhaupt regelmäßig auf oder handelt es sich hier beim AG Köln um einen Zufallstreffer? Gut möglich, dass die Dunkelziffer von KI-Schriftsätzen mit Halluzinationen vor deutschen Gerichten recht hoch ist. Auch in den Kommentaren unter Siegburgs LinkedIn-Post mehrten sich anekdotische Hinweise darauf. Der Richter Sebastian Dötterl verweist dort auf einen britischen Rechtsanwalt der renommierten Kanzlei Doughty Street Chambers, der nach eigenen Angaben derzeit an einer Liste arbeitet, die KI-Halluzinationen in Gerichtsdokumenten aus aller Welt sammelt. Gut möglich, dass hier auch einige deutsche Fälle landen werden.

AG Köln, Beschluss vom 02.07.2025 - 312 F 130/25

Redaktion beck-aktuell, Maximilian Amos, 8. Juli 2025.

Mehr zum Thema