"Künstliche Intelligenz verändert die Rechtsbranche tiefgreifend. Was noch vor wenigen Jahren als ferne Zukunftsvision erschien…" Wie häufig sind Ihnen in den letzten Jahren Artikel begegnet, die auf diese Weise beginnen? Und haben Sie sich nicht schon gefragt, wo diese Veränderungen im Kanzleialltag wirklich ankommen? Ist die Arbeit von Juristinnen und Juristen nicht noch immer dieselbe? Oder haben sich tatsächlich einzelne Aspekte durch den Einsatz von KI beschleunigt?
Zahlreiche Berichte beschreiben, welche Leistungen KI bereits heute in Kanzleien angeblich erbringen soll. Befragt man ChatGPT hierzu, lauten die Antworten seit drei Jahren gleich: KI-Agenten übernehmen angeblich autonom erste Mandantenanfragen, Datenbankrecherchen würden nur noch wenige Sekunden dauern und Fristen würden automatisch notiert und verwaltet. Due-Diligence-Prüfungen seien in wenigen Minuten erledigt, wo früher noch Associates tagelang in Datenräumen saßen.
Jeder, der – wie der Autor dieses Textes – einmal in einer Kanzlei gearbeitet hat und sich mit Large Language Models auskennt, weiß, dass das nicht stimmt und wir von dieser Realität noch Jahre entfernt sind.
Die Echokammer
Weil die Maschine diesen Unsinn seit Jahren predigt, landet er in Blogposts, Whitepapers, Büchern und LinkedIn-Beiträgen, die ihrerseits oft mit KI erstellt werden. Diese Texte übernehmen die KI-Modelle wiederum in ihr Training und spiegeln sie zurück. Das Ergebnis: eine Echokammer, in der KI ihre eigenen Übertreibungen zur Wahrheit erklärt und die Wahrnehmung einer Revolution befeuert, die in der Praxis (noch) nicht stattgefunden hat.
Viele Kanzleien sitzen ebenfalls in dieser Echokammer und stimmen in den Chor mit ein. Jede Woche gibt es neue Pressemitteilungen: Hier wird ein KI-Tool eingeführt, dort angeblich mit KI-Agenten ganze Arbeitsbereiche wegrationalisiert. Junior Associates gelten vielfach bereits als entbehrlich und werden angeblich schon seit gestern durch die hauseigene KI ersetzt.
Hinzu kommen Toolanbieter, die ihre Produkte verkaufen wollen und deswegen Automatisierungs- und Beschleunigungsversprechen aufstellen: Angeblich lässt sich schon heute fast jede Rechtsdienstleistung 90% schneller erledigen. Kanzleien, die nicht umgehend handeln, könnten ihren Laden direkt dicht machen – so zumindest die Devise. Dass bei vielen Anbietern kaum Personen arbeiten, die je eine Kanzlei von innen gesehen haben – geschenkt.
Die Realität
Blickt man jedoch hinter die Kulissen und spricht mit den Anwältinnen und Anwälten, entsteht ein anderes Bild. Viele Systeme werden, wie erste Befragungen zeigen, nach einer starken Pilotphase kaum genutzt. In Gesprächen mit Associates und Partnern hört man fast immer dasselbe: Für E-Mails, Datenextraktionen und Textzusammenfassungen sind die Tools sehr nützlich. Die Arbeit eines Rechtsanwalts oder einer Rechtsanwältin besteht aber aus viel mehr. Und dort, wo es knifflig wird, bleiben die großen Erleichterungen aus.
Kürzlich sorgte ein auf Reddit vielgelesener Post eines angeblichen Harvey-Mitarbeiters für Wirbel. Dieser ist enttäuscht über das amerikanisches KI-Start-up für den Rechtsmarkt und seine Nutzung durch Anwältinnen und Anwälte. Ob der Verfasser tatsächlich bei Harvey AI beschäftigt war, ist nicht verifiziert. Die geschilderten Erfahrungen decken sich aber mit dem, was man aus vielen Kanzleien hört: hohe Erwartungen, teure Verträge, und am Ende ein Werkzeug, das in der Praxis wenig verändert.
Kanzleien, die sechsstellige Summen in Tools investiert haben, wollen aber wenigstens PR daraus ziehen. So entstehen in der Echokammer Hochglanzmeldungen über Innovationen, die intern wenig bewegen.
Arbeiten wir wirklich effizienter?
Die Frage, ob KI unsere Arbeit wirklich effizienter macht, ist im juristischen Bereich aktuell noch nicht repräsentativ beantwortet. Um Missverständnissen vorzubeugen: es geht nicht darum, ob KI uns ermöglicht, bessere (juristische) Ergebnisse zu erzielen. Es geht darum, ob sie unsere Arbeit derart beschleunigt, wie vielerorts behauptet wird.
Studien deuten jedoch auf das Gegenteil hin. Es scheint, dass dort, wo Juristinnen und Juristen KI einsetzen, sie weniger Effizienz bringt, als Anbieter versprechen. Gleichzeitig nehmen ihre Nutzerinnen und Nutzer aber offenbar höhere Effizienzsteigerungen wahr, als es objektiv der Fall ist.
Studien belegen dieses Paradox. Eine Untersuchung kam zu dem Ergebnis, dass Software-Entwicklerinnen und -Entwickler, die KI einsetzen, 20% langsamer arbeiten als die Vergleichsgruppe. Gleichzeitig hielten sie sich selbst für 24% schneller. Wahrnehmung und Wirklichkeit klaffen also auseinander. Lässt sich diese Erkenntnis auch auf die Anwendung von KI in der Rechtsbranche übertragen? Nach meiner Erfahrung schon.
Seit drei Jahren nutzt auch der Autor dieser Zeilen fast sämtliche KI-Tools, die der (Rechts-)Markt zu bieten hat. Bei Routineaufgaben wie E-Mails, Zusammenfassungen oder Datenextraktion gibt es in der Tat deutliche Erleichterungen. Sobald es jedoch um die juristische Kernarbeit geht, also um Recherchen, Gutachten oder die rechtliche Würdigung in Schriftsätzen, bleibt die versprochene Beschleunigung aus. Die Systeme erzeugen in wenigen Minuten seitenlange Entwürfe, die auf den ersten Blick beeindruckend wirken. Sobald man jedoch tiefer einsteigt, zeigt sich, dass diese Texte meist nur an der Oberfläche kratzen. Häufig fehlen wesentliche Argumente, Zusammenhänge werden falsch verstanden, und die juristische Tiefe reicht nicht aus. Am Ende muss man den KI-Output so lange überarbeiten, bis ein erheblicher Anteil der Arbeit doch eigenständig erbracht wurde. Von Halluzinationen, wie sie bis heute auftreten, fangen wir gar nicht erst an.
Das paradoxe Ergebnis: Man hat das Gefühl, Zeit gewonnen zu haben, weil der erste Entwurf schnell auf dem Tisch liegt. In Wahrheit verliert man Zeit, weil die Nacharbeit deutlich länger dauert, als der anfängliche Gewinn vermuten lässt. Die gute Nachricht: So wird die billable Hour als Abrechnungsmodell, entgegen unzähliger Unkenrufe, zeitnah jedenfalls nicht aussterben.
Für diese "Müllergebnisse", die nur auf den ersten Blick nach Substanz aussehen, hat sich die Bezeichnung "AI-Slop" durchgesetzt. Wörtlich übersetzt heißt "slop" so viel wie Pampe oder Abfall. Gemeint sind Inhalte, die ordentlich verpackt wirken, aber inhaltlich schwach sind. Das macht sie so gefährlich: Sie sehen professionell aus und täuschen Geschwindigkeit vor, erfordern aber noch mehr Nacharbeit.
Stanford, MIT und BetterUp Labs haben diesen Effekt untersucht. In einem Unternehmen mit 10.000 Beschäftigten zeigte sich, dass rund 15% der mit KI erstellten Inhalte in die Kategorie "Workslop" fielen. Vier von zehn Befragten gaben an, im letzten Monat mit "AI-Slop" konfrontiert gewesen zu sein. Jede einzelne Korrektur dauerte fast zwei Stunden. Auf das ganze Unternehmen gerechnet entspräche das einem Produktivitätsverlust von neun Millionen Dollar pro Jahr.
Wie lässt sich "AI-Slop" verhindern?
Der wichtigste Schritt, um dem entgegenzuwirken, ist, KI nur dort einzusetzen, wo die Nutzerinnen und Nutzer die Materie wirklich kennen. Wer ohne Fachwissen ganze Rechtsgebiete mitabwickelt oder der Marketingabteilung ungefragt nebenbei ein "fertiges" Konzept übergibt, produziert in vielen Fällen Inhalte, die direkt im Papierkorb landen und nur Mehrarbeit kosten.
Natürlich lässt sich einwenden: Auch früher wurden unkritisch Muster übernommen, etwa AGB aus dem Internet. Die mussten dann auch von Anwältinnen und Anwälten glattgebügelt werden. Sind die Entwürfe der KI heute wirklich besser?
Das stimmt zwar grundsätzlich, aber der Vergleich hinkt. ChatGPT ist ein Massenphänomen. Laut einer Umfrage nutzen es 43% aller Angestellten, und viele Unternehmen treiben ihre Belegschaften mit "AI-first"-Strategien in den Einsatz. Bei schlechten AGB-Mustern war das anders, sie blieben Einzelfälle. Heute geht es um ein Phänomen, das ganze Organisationen betrifft.
Es geht trotzdem nicht darum, morgen wieder händisch zu arbeiten und auf KI als extrem nützliches Werkzeug zu verzichten. Wir sollten jedoch aus der Hype-Echokammer ausbrechen und uns nicht mit wahnsinnigen Versprechen überteuerte Tools verkaufen lassen, die wenig mehr bieten als ChatGPT, aber das zehnfache kosten und am Ende viel weniger bringen, als erhofft.
Tobias Voßberg ist Rechtsanwalt und Fachanwalt für gewerblichen Rechtsschutz. Er befasst sich seit Jahren mit dem Einsatz von KI in der Rechtsberatung und analysiert deren Chancen und Grenzen. Neben seiner anwaltlichen Tätigkeit publiziert er regelmäßig zu den Anwendungsmöglichkeiten von KI im geistigen Eigentum und zum Einfluss neuer Technologien auf die juristische Praxis.


