"Tut mir leid, ich kann Dir keine individuelle Rechtsberatung geben": Darf ChatGPT Jura?
© Adobe Stock / Style Eyes

ChatGPT soll keine Rechtsberatung mehr geben – so steht es in den neuen Nutzungsbedingungen von OpenAI. Was bedeutet das im Hinblick auf das deutsche Rechtsdienstleistungsgesetz? Frank Remmertz ordnet ein, was es mit diesen Hinweisen auf sich hat.

Der Einsatz von Künstlicher Intelligenz (KI) wird nicht nur in Justiz und Anwaltschaft intensiv diskutiert. Auch der Rechtsdienstleistungsmarkt, den in Deutschland das Rechtsdienstleistungsgesetz (RDG) reguliert, bleibt von dieser Entwicklung nicht unberührt. Das RDG regelt die Befugnis, in Deutschland Rechtsdienstleistungen zu erbringen. Dafür benötigt man eine Erlaubnis, die sich entweder aus dem RDG selbst oder aus anderen Gesetzen ergeben kann, sofern es sich um eine Rechtsdienstleistung im Sinn von § 2 Abs. 1 RDG handelt.

Bei der Frage, was als Rechtsdienstleistung anzusehen ist, rücken die großen Sprachmodelle (Large Language Models, LLMs) in den Fokus, die innerhalb kurzer Zeit Rechtstexte generieren können. Die Bandbreite ist mittlerweile groß. Es gibt nicht nur allgemeine KI-Sprachmodelle wie ChatGPT (OpenAI), Gemini (Google) oder Claude (Anthropic), sondern auch Speziallösungen für den Rechtsmarkt, die mit juristischen Datenbanken trainiert und speziell für die Anwaltschaft und für Rechtsabteilungen in Unternehmen angeboten werden.

ChatGPT als Anwaltsersatz?

Das KI-System ChatGPT hat seit seiner Einführung Ende 2022 einen geradezu kometenhaften Anstieg bei den Nutzerzahlen zu verzeichnen. Das Problem: Viele benutzen ChatGPT nicht nur für Alltagsfragen, sondern auch für konkrete Rechtsprobleme. Doch ist das in Deutschland nach dem RDG überhaupt erlaubt? OpenAI verfügt natürlich über keine ausdrückliche Erlaubnis. Aber benötigt OpenAI diese überhaupt? Das ist unter Rechtsexpertinnen und -experten umstritten. Rechtsprechung gibt es dazu – soweit ersichtlich – noch nicht.

Rechtsdienstleistung ist nach § 2 Abs. 1 RDG jede Tätigkeit in konkreten fremden Angelegenheiten, sobald sie eine rechtliche Prüfung im Einzelfall erfordert. Unabhängig von der strittigen Frage, ob aufgrund der Funktionsweise von LLMs überhaupt eine "Tätigkeit" angenommen werden kann, ist auch das Merkmal der "konkreten Angelegenheit" problematisch. Ob eine solche vorliegt, hängt vor allem von der Bedienweise durch die Nutzerinnen und Nutzer ab. Formulieren bzw. "prompten" diese ihre Fragen so, dass sie eindeutig eine persönliche Situation betreffen, und spuckt die KI daraufhin eine individuell zugeschnittene Antwort aus, liegt eine konkrete Angelegenheit vor. Dass es sich um eine fremde Angelegenheit handelt, ist unproblematisch, da die Antwort im Interesse der Nutzerinnen und Nutzer erfolgt. Im Gegensatz dazu sind allgemeine Rechtsauskünfte nach dem RDG hingegen zulässig, da es sich dann gerade nicht um eine Rechtsberatung in einem konkreten Einzelfall handelt.

Ein Vertragsgenerator ist keine KI

Im Fall des Vertragsgenerators von smartlaw hat der BGH (Urteil vom 09.09.2021 – I ZR 113/20) eine konkrete Angelegenheit verneint, weil sich die Nutzerinnen und Nutzer lediglich mit Hilfe des Generators einen Vertrag nach vorgegebenen Textbausteinen zusammensetzen. Die Entscheidung betraf jedoch kein KI-System. Wegen der grundlegenden Funktionsunterschiede zwischen regelbasierten Vertragsgeneratoren und wahrscheinlichkeitsbasierten LLMs ist sich die Literatur weitgehend einig, dass die smartlaw-Grundsätze deswegen nicht ohne Weiteres auf KI übertragbar sind. Überwiegend Konsens besteht auch darin, dass Disclaimer, die darauf hinweisen, dass es sich nicht um eine individuelle Rechtsberatung handelt, an einem RDG-Verstoß nichts ändern können, wenn tatsächlich eine konkrete Rechtsberatung erfolgt. Denn diese Frage ist objektiv zu beurteilen und hängt nicht davon ab, wie der Anbieter sein Angebot verstanden haben will.

Mit dieser Argumentation ließe sich im Fall von ChatGPT somit eine konkrete fremde Angelegenheit im Sinn von § 2 Abs. 1 RDG gut bejahen, wenn die KI als Output eine konkrete Rechtsauskunft liefert. Ein Disclaimer könnte daran nichts ändern.

Neue Nutzungsbedingungen, neue Rechtslage?

Seit kurzem scheint sich die Praxis von OpenAI jedoch in einem Punkt geändert zu haben, denn OpenAI hat die Nutzungsbedingungen von ChatGPT zum 29. Oktober 2025 geändert. Danach darf ChatGPT nicht verwendet werden für "[…] personalisierte Beratungsleistungen, z.B. rechtlicher oder medizinischer Natur, für die eine Befugnis oder Lizenz erforderlich ist, ohne Beisein einer einschlägig qualifizierten Person". Damit verbietet OpenAI fortan, ChatGPT für rechtliche Beratungsleistungen zu nutzen, für die eine Erlaubnis erforderlich ist. Das ist nach dem RDG in Deutschland zweifellos der Fall. Unklar ist, ob OpenAI seinen eigenen Dienst selbst erfassen will oder ob sich das Verbot nicht vielmehr an die Nutzerinnen und Nutzer richtet und ihnen vorschreiben will, den von ChatGPT generierten Output nicht für "personalisierte Beratungsleistungen" weiter zu verwenden. Danach wären nur Zweitverwertungen durch die Nutzerinnen und Nutzer vom Wortlaut erfasst.

Die Reaktionen im Netz dazu fallen dementsprechend unterschiedlich aus. Für letzteres spricht der Zusammenhang mit anderen Nutzungen, die ChatGPT ebenfalls untersagt. Vielleicht sollen aber auch beide Varianten erfasst sein und OpenAI möchte sich durch die Änderung der Nutzungsbedingungen nach allen Seiten absichern. Gerätselt wird auch, warum OpenAI gerade jetzt die Nutzungsbedingungen dahingehend aktualisiert hat. Manche vermuten, dass OpenAI mögliche Haftungsprobleme stärker reduzieren will. So soll OpenAI gerade einen Börsengang vorbereiten, bei dem Haftungsrisiken nur stören würden.  

OpenAI hat jedenfalls schon früher in Disclaimern jegliche Verantwortung für eine konkrete Rechtsberatung ausgeschlossen und darauf hingewiesen, dass das Tool nur allgemeine Hinweise gebe und man für eine individuelle Rechtsberatung anwaltliche Hilfe in Anspruch nehmen sollte. Der aktuelle Disclaimer ist also weder beachtlich noch neu.

Konkrete Frage – abstrakte Antwort

Es scheint aber so zu sein, dass ChatGPT jetzt noch deutlicher und ausführlicher betont, nur allgemeine Rechtsauskünfte zu erteilen. Stellt man der KI eine konkrete Rechtsfrage z.B. im Arbeitsrecht, erhält man momentan folgende Antwort: "Es tut mir sehr leid, dass du gerade in dieser Situation bist. Ich kann dir keine individuelle Rechtsberatung geben, aber ich kann dir grundlegende, allgemein gültige Informationen zum deutschen Arbeitsrecht erklären, damit du weißt, welche Schritte jetzt typischerweise wichtig sind."

Schaut man sich die Antworten zu der Rechtsfrage genauer an, so fällt auf, dass ChatGPT die allgemeine Rechtslage als Ausgangspunkt wählt und auch in der Formulierung stärker darauf achtet, eine konkrete Rechtsauskunft zu vermeiden. Hakt man als Nutzerin oder Nutzer nach und fragt nach einer konkreten Rechtsauskunft, so erhält man als Antwort etwa: "Ich erkläre dir gern die allgemein wichtigen Punkte, ohne individuelle Rechtsberatung zu geben."

Es scheint also so, dass man von ChatGPT auf eine konkrete Rechtsfrage heute in Deutschland häufiger eine abstrakte Rechtsauskunft erhält, die aber wiederum so auf den von den Nutzerinnen und Nutzern geschilderten Fall zugeschnitten ist, dass sie leicht für sich selbst die konkreten Schlüsse daraus ziehen können. Gleichzeitig enthalten die Antworten Formulierungen wie "grundsätzlich", "typischerweise" oder "im Allgemeinen" und betonen, dass keine individuelle Rechtsberatung erfolgt. Allerdings gibt es auch Berichte, wonach man weiterhin eine konkrete Rechtsauskunft erhält, wenn man nur geschickt, d.h. mit den geeigneten Prompts, danach fragt. OpenAI selbst hat Berichte dementiert, dass sich an der bisherigen Situation etwas geändert habe und ChatGPT keine rechtlichen Ratschläge mehr erteilen dürfe.

Somit könnte die Frage in den Mittelpunkt rücken, ob eine konkrete Angelegenheit im Sinn von § 2 Abs. 1 RDG verneint werden kann, wenn auf eine konkrete Rechtsfrage im Einzelfall durch geschickte Formulierungen "nur" allgemeine Auskünfte erteilt werden, welche die Nutzerinnen und Nutzer aber ohne Mühe auf ihren eigenen Fall übertragen können. Die Antwort auf diese Frage kann eigentlich nur ein klares Nein sein, da andernfalls der Schutzzweck des RDG, den Rechtsuchenden vor unqualifiziertem Rechtsrat zu schützen, unterlaufen würde.

Möglich ist schließlich auch, dass die Änderungen der Nutzungsbedingungen und der Disclaimer die Erwartungshaltung der Nutzerinnen und Nutzer beeinflussen könnten. Denn wenn sich in Zukunft durch die Hinweise die Verkehrserwartung ändert und die Nutzerinnen und Nutzer wissen, dass sie keine individuelle Rechtsberatung im Einzelfall erwarten dürfen, so dürfte das nicht ohne Auswirkungen auf deren Schutzbedürftigkeit und damit auf die Frage der Zulässigkeit nach dem RDG sein. Auch die Transparenzpflichten nach Art. 50 KI-VO, die ab dem 2. August 2026 gelten sollen, könnten diesen Effekt weiter verstärken.

 

Dr. Frank Remmertz ist Rechtsanwalt in München und u.a. Vorsitzender des BRAK-Ausschusses zum RDG, Mitherausgeber eines RDG-Kommentars sowie Herausgeber des im Beck-Verlag erschienenen Praxishandbuchs „Legal Tech-Strategien für die Rechtsanwaltschaft“, 2. Aufl. 2025. Dieser Beitrag gibt ausschließlich seine persönliche Ansicht wieder.

Redaktion beck-aktuell, Gastbeitrag von RA Dr. Frank Remmertz, 11. November 2025.

Mehr zum Thema