Menschen mit langem Gedächtnis fühlen sich an Smartlaw erinnert. Seit 2014 gab es einen Streit darüber, ob sogenannte Dokumenten- und Vertragsgeneratoren, also Software, mit der man Verträge oder juristische Dokumente erstellen kann, eine Rechtsdienstleistung darstellen. Die Besonderheit der Vertragsgeneratoren bestand darin, dass sie nicht unendlich viele Gestaltungsformen anboten, sondern nur eine definierte Zahl von Varianten für eine Vielzahl von Fällen, aber eben nicht für jeden Einzelfall. Die Vertragserstellung geschah auf Grundlage vorher definierter Regeln. Autonome Regelabweichung kam nicht vor. Das war für den BGH in der Smartlaw-Entscheidung (NJW 2021, 3125) Grund genug, eine Rechtsdienstleistung zu verneinen – mit der Folge der Unanwendbarkeit des RDG, so dass jeder eine entsprechende Dienstleistung anbieten darf. Der seinerzeit prophezeite Untergang der Anwaltschaft ist ausgeblieben.
ChatGPT kann mehr. Viel mehr. Anders als bei regelbasierter Software gibt es keine vordefinierten Ergebnisse, im Gegenteil: Auf jede Frage, egal zu welchem Thema, gibt es eine Antwort. Auch auf ganz konkrete Rechtsfragen. Man kann Rechtsfälle „lösen“, wobei das Wort „lösen“ nicht passt. Rein technisch ist die Falllösung das Ergebnis einer reinen Wahrscheinlichkeit des Aufeinanderfolgens von Buchstaben und Worten, ausgehend vom Prompt, also der Eingabe. Die Software weiß nichts über Jura, sie weiß auch nichts über andere Bereiche, zu denen sie etwas sagt. Deshalb kommt auch viel Unsinn heraus. Viele Juristen ficht das nicht an, denn die Ergebnisse klingen oft auch einfach zu gut. Die Software verwendet Wahrscheinlichkeitsmodelle und statistische Methoden, der konkrete Bereich – Jura, Mathe, Liebesbriefe, Reisetipps, medizinische Diagnosen etc. – ist nicht so wichtig.
Wäre das Angebot eines Chatbot-Dienstleisters nach dem RDG unzulässig? Beruhen die Ergebnisse auf Tätigkeiten im Sinne des Gesetzes? Es ist, wie gesagt, reine Wahrscheinlichkeit, unendlich oft wiederholbar. Umgekehrt gefragt: Wie geht man mit dem Risiko um, dass jemand einer konkreten Rechtsauskunft von ChatGPT vertraut und dadurch Nachteile erleidet? Welches Vertrauen ist hier schutzwürdig? Prima vista: Die Antwort liegt nicht im RDG, sondern im AI-Act, der bei Chatbots auf Transparenz setzt. Wer KI bewusst nutzt und dem Ergebnis trotzdem vertraut, dem ist vielleicht nicht zu helfen.
Dieser Inhalt ist zuerst in der NJW erschienen. Sie möchten die NJW kostenlos testen? Jetzt vier Wochen gratis testen inkl. Online-Modul NJWDirekt.