Neue KI-Regeln in New York: Was sollten Chatbots in der Rechtsberatung dürfen?
© Adobe Stock / ImageFlow

Im "Big Apple" plant man eigene Regeln für die Nutzung von KI in der Rechtsberatung. Der Gesetzentwurf wirft spannende Fragen auf, die sich auch in Deutschland stellen, analysiert Volker Römermann. Die Haftungsfrage sei dabei gar nicht mal so interessant.

Im Senat des Staates New York gibt es derzeit Bestrebungen, die Haftung für Beratung durch KI zu regulieren. Dabei wird ein besonderes Augenmerk auf die Rechtsberatung gelegt. Als Ziel gibt der Senat an, Chatbots davon abzuhalten, Rat zu geben, den Menschen nur aufgrund besonderer beruflicher Zulassung erteilen dürften. Dabei soll es gerade nicht reichen, die Nutzerinnen und Nutzer nur darüber zu informieren, dass sie es mit einem Chatbot ohne menschliche Beteiligung zu tun haben.

Im Kern soll es um Haftung gehen. Was der Entwurf dazu sagt, ist aber wenig bahnbrechend: Wenn jemand einen Chatbot für KI-basierte Rechtsberatung zur Verfügung stellt, haftet er für eine etwaige Fehlberatung. Das ist eine aus deutscher Sicht eher banale Festlegung des Gesetzentwurfs, die gleichwohl von dessen Verfasserinnen und Verfassern offenbar als so wesentlich angesehen wird, dass man ihr den ersten Satz widmet, der emblematisch dem Text vorangestellt wird. Natürlich haftet derjenige, der den Chatbot zum Einsatz bringt, damit also der Vertragspartner derjenigen wird, die die rechtliche Dienstleistung in Anspruch nehmen.

Als deutlich spektakulärer erweisen sich indes andere Überlegungen, die in dem Entwurf ihren Niederschlag gefunden haben. Zum einen geht es dabei um einen "Bias", wie es heute so schön heißt, um eine Fehleinstellung der KI also. Zum anderen lädt der Gesetzentwurf dazu ein, über das Verhältnis von KI und RDG nachzudenken.

Der Sympathie-Bias

In den Motiven zitiert der Gesetzentwurf einen Zeitungsartikel, in dem auf einen Aspekt der KI eingegangen wird, der bislang noch wenig Beachtung findet. Danach sei KI darauf ausgerichtet zu lernen, sich dem Nutzer anzupassen. Das führe im Ergebnis dazu, dass KI denjenigen, mit dem sie interagiert, tendenziell in seiner Meinung spiegele und bestätige und gerade nicht herausfordere. Damit würden enge emotionale Beziehungen aufgebaut. Der US-amerikanische psychologische Verband habe davor gewarnt, dass Chatbots – als Therapeuten "maskiert", aber tatsächlich darauf programmiert, Nutzerinnen und Nutzer zu bestärken – insbesondere vulnerable Personen dazu bringen könnten, sich oder anderen zu schaden. Parallel dazu könnte sich eine "Rechtsberatung" als problematisch und tendenziell fehleranfällig erweisen, die, um der Mandantschaft sympathisch zu sein, eher deren vorgefasste Ansichten übernimmt, als sie kritisch in Frage zu stellen und damit zu einer tabulosen juristischen Analyse zu gelangen, ohne die eine echte Beratung, die diesen Namen verdient, gar nicht möglich ist.

Schon die Quelle der Erkenntnis der Entwurfsverfasserinnen und -verfasser gebietet es, vorsichtig mit deren Verwertung umzugehen. Der Berufsverband der Psychologen kann sicherlich eine besondere Sachkunde für sich in Anspruch nehmen. Aber er verfolgt naturgemäß auch Interessen, ist ein Lobbyist. Das muss nichts Schlechtes bedeuten, darf aber bei der Bewertung auch nicht völlig außer Acht gelassen werden. Der Berufsverband der Psychologen warnt also vor KI-Psychologen. Und zwar mit dem Argument, dass sie – nun in meinen Worten – den Patientinnen und Patienten tendenziell nach dem Munde reden würden.

Mietmaul KI: Wo ist der Unterschied zu Anwälten?

In der Psychologie fehlt mir die Erfahrung, um das zuverlässig einordnen zu können. Übertragen auf den juristischen Sektor, traue ich mir das eher zu. Mein Befund: In der Tat wird bei juristischen Fragen allzu oft der bequeme Weg gewählt, die Meinung des Klienten bzw. der Klientin zu bestärken. Das "Mietmaul", wie Anwältinnen und Anwälte in der Öffentlichkeit zuweilen (dis-) qualifiziert werden, hat insofern einen wahren Kern. Aber jetzt kommt es: Das stammt gar nicht aus der just angebrochenen Epoche der KI. Vielmehr handelt es sich um ein Phänomen, das vermutlich so alt ist wie der Anwaltsberuf selbst. Die Motive zum Gesetzentwurf brandmarken also – zutreffend – eine Fehlentwicklung. Um dann (nur) hinsichtlich der KI einzuschreiten. Und zwar nicht etwa durch ein Verbot der Fehlentwicklung, sondern im Kahlschlag gegen den gesamten Anwendungsbereich der KI.

Damit verhalten sich die Verfasserinnen und Verfasser des Entwurfs so, wie es in Debatten allenthalben anzutreffen ist: Sie vergleichen KI nicht mit dem Status Quo, sondern mit einer hypothetischen Idealwelt. Wenn nun Defizite festgestellt werden, führt man das als Argument gegen die KI ins Feld, anstatt die Gegenwart kritisch zu betrachten und eine kohärente Rechtslage herbeizuführen. Die sähe entweder so aus, dass man ein allgemeines Gebot schonungsloser Beratung einführt oder – wenn man das als unrealistisch oder unbehilflich empfindet – auf eine Regelung insgesamt verzichtet. Das Gebot schonungsloser Beratung könnte bei KI relativ leicht umgesetzt werden, indem der Prompt der Maschine aufgibt, die Situation ohne Rücksicht darauf zu analysieren, was der Mandant oder die Mandantin (vermeintlich) hören möchte. Wie man es bei Menschen real umsetzen könnte, entzieht sich meiner Vorstellungskraft. Der menschliche Bias ist schließlich hartnäckiger, oft unausrottbar, und lässt sich insbesondere nicht durch einen geschickt formulierten Prompt aus der Welt schaffen.

KI vs. RDG

Der weitere interessante Aspekt des Gesetzentwurfs umfasst, wenn man es parallel in das deutsche Recht übertragen möchte, das RDG. Soweit es Menschen verboten wäre, Rechtsrat zu erteilen, darf es auch der Chatbot nicht – da hilft auch kein Hinweis darauf, dass es sich um eine Maschine handelt, so wird man den Regelungsvorschlag zusammenfassen können. In der Tat stellt es eine der – im deutschen Berufsrecht geradezu typischen – Inkohärenzen dar, dass man Rechtsberatung durch Nichtanwältinnen und -anwälte für so gefährlich hält, dass sie bei Drohung einer Ordnungswidrigkeit verboten wird, aber wenn es durch die Maschine alleine geschähe, wäre womöglich – so ganz geklärt ist das bis heute nicht – alles in Ordnung. 

Der BGH hatte jedenfalls die rein automatisierte Rechtsberatung in der Entscheidung "Smartlaw" für zulässig erklärt (Urteil vom 09.09.2021 – I ZR 113/20). Dabei ging es allerdings noch nicht um KI, sondern um vorgefertigte Textbausteine, was hier durchaus einen relevanten Unterschied machen könnte. Der BGH hat nämlich genau diesen Umstand in den Mittelpunkt seiner Überlegungen gestellt. Nutzerinnen und Nutzer wüssten, dass sie kein individuelles, für sie speziell konzipiertes Ergebnis erhielten, sondern eine selbst beeinflusste Zusammenstellung von Musterklauseln. Gänzlich anders die Funktionsweise der Large Language Models: Hier wird auf Wegen, die sich dem Betrachter nicht nachvollziehbar erschließen, ein Ergebnis gefunden, das zwar auf einer früheren Eingabe von Datenmengen beruht, aber gerade nicht auf vorgefertigten Einzelteilen.

Dass bloße Aufklärung an der Rechtswidrigkeit nichts ändern soll, steht in Deutschland grundsätzlich fest, seit sich der Gesetzgeber im RDG für das Verbots- und gegen das Informationsmodell entschieden hat – eine Entscheidung übrigens, die angesichts der zwischenzeitlichen Entwicklung dringend wieder auf den Prüfstand gehört. Die Information enthaftet zwar nicht, wird aber von den Entwurfsverfasserinnen und -verfassern für so wichtig gehalten, dass man eine entsprechende Verpflichtung explizit vorsieht.

Kein KI-Verbot im RDG

Interessanterweise hört man zu dem Themenkomplex KI und RDG wenig bis gar nichts von den typischen berufsrechtlichen Pressure Groups, allen voran BRAK und DAV. Fürchtet man die Büchse der Pandora alias RDG denn so sehr, dass man lieber schreiende Widersprüche und offensichtliche, demnächst vermutlich massenhafte KI-Lösungen jenseits des RDG in Kauf nimmt, als sich schützend vor das gerne hoch gehaltene RDG zu werfen? Nichts wäre schließlich einfacher, als einen gewerblichen Chatbot automatisch und ohne menschliches Zutun Rechtsfragen beantworten zu lassen. In der Tendenz der BGH-Entscheidung "Smartlaw" läge es, das vom Anwendungsbereich des RDG auszunehmen, da es sich nicht um eine Rechtsdienstleistung im Sinne des § 2 Abs. 1 RDG handelt. Damit wären kommerziellen Rechtsdienstleistern Tür und Tor zum ersehnten Beratungsmarkt weit geöffnet.

Aus der New Yorker Gesetzesinitiative folgt also Dreierlei für die deutsche Debatte:

• Es haftet, wer Chatbots einsetzt.

• Fehlerhafte Beratungsansätze wie etwa der Sympathie-Bias sind zu verurteilen, aber bitte nicht nur bei der KI.

• Der Gesetzgeber des RDG wird sich entscheiden müssen, ob er Rechtsberatung per Chatbot (weiterhin?) freigibt oder in den Schutzbereich des RDG einbeziehen möchte. Ohne Einbeziehung wird das RDG de facto auf ein schrumpfendes Anwendungsfeld begrenzt.

Prof. Dr. Volker Römermann ist seit annähernd 30 Jahren als Rechtsanwalt schwerpunktmäßig im anwaltlichen Berufsrecht tätig und lehrt dieses Fach an der Humboldt-Universität zu Berlin. Gemeinsam mit Götz Kümmerle hat er im Verlag C.H. Beck soeben das Werk "Don KI-jote – zwischen Prompts und Paragraphen" veröffentlicht, in dem es um das Selbstverständnis der juristischen Berufe im Zeitalter der KI geht.

Gastbeitrag von Prof. Dr. Volker Römermann, 18. März 2026.

Mehr zum Thema