KI in Kanzleien: AI-Act und anwaltliches Berufsrecht
© Ingo Bartussek / Adobe Stock

Der zunehmende KI-Einsatz durch Anwältinnen und Anwälte wirft berufsrechtliche Fragen auf, die nun zum Teil durch den Europäischen AI Act aufgegriffen werden. Warum es neben dem AI Act auch Anpassungen im Berufsrecht braucht, erläutern Volker Römermann und Iris-Synthia Lolou.

Die Einführung der Künstlichen Intelligenz (KI) hat viele Berufsfelder grundlegend verändert oder ist im Begriff, das zu tun, und auch die Rechtsberufe bleiben davon nicht unberührt. Insbesondere der AI Act, die Europäische Verordnung zur Regulierung von Künstlicher Intelligenz, bringt neue Regelungen für den Einsatz von KI im Berufsalltag, die sowohl Chancen als auch Herausforderungen mit sich führen.

Für Anwältinnen und Anwälte stellt sich die Frage, wie sie KI sinnvoll nutzen können, ohne gegen bestehende berufsrechtliche Vorschriften zu verstoßen. Gleichzeitig müssen sie sich mit den neuen Compliance-Anforderungen des AI-Acts auseinandersetzen.

KI nicht zu nutzen wäre sorgfaltswidrig

Die Einsatzfelder für KI in Kanzleien sind vielfältig – sie reichen von einfacher Sprach- und Textverarbeitung über die Unterstützung in Rechercheaufgaben bis hin zur automatisierten Mandantenkommunikation durch Chatbots.

Auf nationaler Ebene gibt es bisher keine Vorschriften, die spezifisch den Einsatz von KI regulieren. Im Berufsrecht der Rechtsanwälte ergibt sich der Sorgfaltsmaßstab aus § 43 BRAO und § 43e BRAO. So folgt aus § 43 BRAO, dass Rechtsanwälte verpflichtet sind, ihren Beruf gewissenhaft auszuüben. Die Regelung des § 43e BRAO betrifft die Auswahl und Überwachung von Dienstleistern, was auch Anbieter von KI-Systemen erfasst.

Sicher ist: Rechtsanwälte dürfen KI nutzen. Sie müssen nur die Ergebnisse kontrollieren und ggf. anpassen. Auch wenn das aktuell noch nicht gelten dürfte, wird sich die bloße Freiheit zur Nutzung von KI in absehbarer Zukunft in Richtung Zwang verschieben. Es wäre nämlich nicht sorgfältig oder "gewissenhaft", sich der Möglichkeiten der Qualitätssicherung durch Einsatz von KI dauerhaft zu verschließen.

KI überflügelt menschliche Leistung

KI-Tools wie Large Language Models (LLM) haben das Potenzial, den Anwaltsberuf sowie das Verhalten der sog. Rechtsuchenden (die indes selten tatsächlich das Recht suchen) zu revolutionieren. Zunächst indem sie Routineaufgaben wie das Durchsuchen großer Datenmengen oder das Erstellen von Standarddokumenten übernehmen. Sie dringen aber auch in individuellere Fragestellungen vor und überflügeln menschliche Leistungskraft dort mittelfristig in vielerlei Hinsicht (Know-How, Service, Empathie).

Allerdings ergeben sich auch Risiken, insbesondere dann, wenn die Tätigkeiten als Rechtsdienstleistungen im Sinne des Rechtsdienstleistungsgesetzes (RDG) qualifiziert werden müssen und nicht von Rechtsanwälten betrieben werden, die solche Rechtsdienstleistungen erbringen dürfen, sondern von gewerblichen Legal-Tech-Anbieter. Ob das RDG anzuwenden ist, hängt nach § 2 RDG maßgeblich davon ab, wie individuell die erstellten Inhalte auf den jeweiligen Nutzer zugeschnitten sind und ob überhaupt eine menschliche Dienstleistung erbracht wird.

Die Haftungsfrage: Wer trägt die Verantwortung bei KI-Fehlern?

Bei der Nutzung von LLMs wie ChatGPT hört man immer wieder von "Halluzinationen", bei denen die KI nicht existierende Gesetze oder Urteile "erfindet". Wenn solche Fehler in rechtliche Beratungen oder Dokumente einfließen, stellt sich die Frage, wer haftet: der Anwalt, der die KI einsetzt, oder der Entwickler des KI-Systems?

Das Berufsrecht gibt hier (noch) keine explizite Antwort. Aktuell folgt die Antwort aus den bestehenden Regeln – wer ausgehende Schriftstücke nicht überprüft, haftet im Verhältnis zum Mandanten. Für den bleibt also alles unverändert. Im Innenverhältnis wären Ansprüche des Rechtsanwalts gegen den Anbieter der KI denkbar und im Wege des bei Produkthaftung geltenden Rechts geltend zu machen.

Hier wird sich indes die Frage stellen, ob der KI-Anbieter auch für die Richtigkeit aller Ergebnisse einstehen wollte, welche die Software hervorbringt. Da der genaue Prozess zwischen der Eingabe der Fragestellung (Prompten) und dem Resultat intransparent ist, wird man genau hinschauen müssen, bevor dem Anbieter so weitreichende Einstandspflichten auferlegt werden.

AI Act: Neue Pflichten außerhalb des Berufsrechts

Das Anwaltliche Berufsrecht hat noch keine vollumfänglich zufriedenstellenden Antworten auf den zunehmenden Einsatz von KI im Anwaltsberuf. Vielmehr werden Fragen, die sich im Zusammenhang mit KI ergeben, aktuell eher mühsam unter die bestehenden berufsrechtlichen Regelungen subsumiert. Nun kommen mit dem AI Act zusätzliche Vorgaben für den Umgang mit KI – auch für Rechtsanwältinnen und Rechtsanwälte, die regelmäßig unter den Anwendungsbereich der Verordnung fallen.

Der AI Act ist ein Regelwerk der Europäischen Union zur Regulierung von KI. "Act" wird in den Medien oft als "Gesetz" übersetzt, materiell trifft das auch zu, formal präziser ist die Bezeichnung als – unmittelbar geltende – Verordnung. Die EU beabsichtigt, ein ausgewogenes Verhältnis zwischen Förderung von Innovation und dem Schutz der Grundrechte zu schaffen.

Dieser Schutz soll durch eine risikobasierte Normierung von KI-Systemen erfolgen. Der AI Act unterscheidet dafür Kategorien von KI-Systemen, von Systemen mit minimalen oder gar ohne Risiko bis hin zu KI-Systemen, die ein aus Sicht der EU ein inakzeptables Risiko darstellen. Ein erster Teil des Normenkatalogs ist in diesem Jahr in Kraft getreten, weitere Teile folgen bis 2027. So haben die Anwender und die Mitgliedstaaten noch etwas Zeit, sich auf das tranchenweise Inkrafttreten vorzubereiten.

Rechtsanwälte und Legal Tech-Unternehmen, die auf Grundlage einer Registrierung als Inkassounternehmen tätig werden, fallen als Anbieter und jedenfalls als Bereitsteller regelmäßig in den Anwendungsbereich des AI Acts. Dieser definiert den Anbieter als natürliche oder juristische Person, die ein KI-System oder ein KI-Modell für allgemeine Zwecke entwickelt oder entwickeln lässt und dieses in Verkehr bringt oder in Betrieb nimmt (Art. 3 Abs. 3 AI Act). Unter einem Bereitsteller versteht die Verordnung eine natürliche oder juristische Person, die ein KI-System unter ihrer Aufsicht einsetzt, es sei denn, das KI-System wird im Rahmen einer persönlichen, nicht beruflichen Tätigkeit verwendet (Art. 3 Abs. 4 AI Act).

Bei einem KI-System handelt es sich um ein Software-System, das so konzipiert ist, dass es mit unterschiedlichem Grad an Autonomie betrieben werden kann und Anpassungsfähigkeit zeigt, und das für explizite oder implizite Ziele aus den Eingaben ableitet, wie es Ausgaben, wie z.B. Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen generieren kann (vgl. Art. 3 Abs. 1 AI Act). Viele Anwendungen, die bereits heute im Kanzleialltag genutzt werden, fallen unter diese Kategorien.

Je nach Kategorisierung gibt der AI Act den Rechtsanwälten verschiedene Verhaltenspflichten auf. Ein Chatbot beispielsweise, der mit Mandanten kommuniziert, dürfte als KI-System mit begrenztem Risiko einzustufen sein (vgl. Art. 50 Abs. 1 AI Act). Solche Systeme unterliegen Transparenzanforderungen. Für Mandanten muss erkennbar sein, dass das ausgegebene Ergebnis aus der Feder einer KI und eben nicht eines Rechtsanwalts stammt.

KI im Spannungsfeld von Innovation und Berufsrecht

Während KI-Systeme enorme Effizienz-, Geschwindigkeits- und nicht zuletzt Qualitätsgewinne versprechen, steht das Berufsrecht vor der Herausforderung, diese Innovationen zu erfassen, ohne die Qualität der Rechtsberatung zu gefährden und (weitere) Wettbewerbsnachteile der Anwaltschaft gegenüber Legal-Tech-Anbietern hervorzurufen.

Der AI Act und das Berufsrecht müssen daher Hand in Hand gehen. KI sollte als unterstützendes Werkzeug betrachtet werden, können aber die Verantwortung oder Entscheidungsbefugnis des Rechtsanwalts nicht ersetzen. Klare Leitlinien und interne Compliance-Maßnahmen können dabei helfen, den sicheren Umgang mit KI in den Kanzleien zu gewährleisten.

Die Integration von KI in den Anwaltsberuf ist richtig und unausweichlich, aber sie muss verantwortungsvoll und unter Berücksichtigung der geltenden Berufsregeln geschehen. Der AI Act setzt hierfür Standards, die jedoch auf nationaler Ebene durch das Berufsrecht konkretisiert und ergänzt werden müssen. Rechtsanwälte sind gefordert, sich auch in technischer Hinsicht fortzubilden und ihre Arbeitsweisen anzupassen, um von den Vorteilen der KI zu profitieren, ohne rechtliche Risiken einzugehen.

Prof. Dr. Volker Römermann, CSP, ist Vorstand der Römermann Rechtsanwälte AG. Schwerpunkte seiner wissenschaftlichen und praktischen Tätigkeit sind das Gesellschaftsrecht, das Insolvenzrecht und das Recht der freien Berufe (insbesondere das anwaltliche Berufsrecht).

Iris-Synthia Lolou ist am Standort Hannover der Römermann Rechtsanwälte AG tätig und berät dort überwiegend im Recht der freien Berufe (insbesondere dem Berufsrecht der Rechtsanwälte und Steuerberater). Ein weiterer Schwerpunkt ihrer Tätigkeit liegt im allgemeinen Zivilrecht und in gesellschaftsrechtlichen Fragestellungen.

Prof. Dr. Volker Römermann und Iris-Synthia Lolou, 28. Oktober 2024.