CHB_RSW_Logo_mit_Welle_trans
jaheader_neu

KI-Update USA

Von Dr. Roland Vogl,
Dr. Roland Vogl ist Executive Director von CodeX – dem Stanford Zentrum für Rechtsinformatik. Auf dem Legal Tech Day, der am 19.9. 2024 in Berlin stattfand, berichtete der gebürtige Österreicher, der seit über 20 Jahren an der Stanford University forscht, über Legal-Tech-Trends und Innovationen in den USA. Dabei zeigten sich viele Parallelen zur Lage in Deutschland und Europa, bei manchen Themen ist man jenseits des Atlantiks aber schon viel weiter. Anstelle eines Interviews hat die Redaktion die Ausführungen des Experten zusammengefasst.
Generative KI. Vogl berichtete von einer Studie der Stanford School of Humanities and Sciences aus dem Februar, nach

der GPT-4 den sogenannten Turing-Test, der vereinfacht gesagt die Fähigkeiten von Mensch und Maschine vergleicht, bestanden hat (Einzelheiten unter  www.pnas.org/doi/10.1073/pnas.2313925121). Die rasanten Entwicklungen im Bereich von Sprachmodellen haben zu einer „kambrischen Explosion“ von KI im Legal-Tech-Markt geführt, wie die CodeX LLMxLaw Hackathons sowie Hochrechnungen bis ins Jahr 2032 von MarketResearchBiz gezeigt hätten. Auch die kurzfristigen Effekte seien nach aktuellen Studien beeindruckend. Nach einer Untersuchung von Thomson Reuters aus diesem Jahr könnten KI-gestützte Tools den  durchschnittlichen Berufsträger schon bis zur vier Stunden pro Woche entlasten. Laut Vogl hat die Medaille aber auch eine Kehrseite: Durch die Entwicklung generativer KI werde der Druck auf bisherige Geschäftsmodelle zunehmen. 

KI-Agenten und Agentische KI. GenAI-Agenten können Aufgaben von Anfang bis Ende durchplanen und dabei mit anderen KI-Agenten agieren. Sie haben damit das Potenzial, vom Co-Piloten zum vollwertigen Kollegen zu werden. Agentische KI mache Bots zudem immer empathischer und persönlicher. Die Ära des distanzierten, unpersönlichen KI-Helfers gehe zu Ende, so Vogl. Stattdessen bekämen wir künftig Chatbots, die mit spielerischer Intelligenz, grundlegender emotionaler Intuition und einer breiten Palette von Ausdrucksformen modelliert sind. Spellbook habe auf Grundlage dieser Technologie bereits den ersten AI Associate präsentiert. 

KI-Evaluation und Benchmarks. Die Evaluation der Zuverlässigkeit Künstlicher Intelligenz und Benchmarks insbesondere im Rechtsbereich sind derzeit ebenfalls ein großes Thema in den USA. Ihren Ausgangspunkt nahm die Diskussion mit der Stanford-Studie „Hallucinating Law“, die – allerdings noch auf Basis von GPT 3.5 – im Bereich spezieller Rechtsanfragen Halluzinationen in einer Größenordnung von 69 % bis 88 % ermittelt hatte. „LegalBench“ ist ein Beispiel für eine kollaborativ entwickelte Benchmark für juristisches Denken, die aus 162 Aufgaben besteht und sechs verschiedene Arten von juristischem Schlussfolgerungen abdeckt. Harvey AI hat Ende August „BigLaw- Bench“ veröffentlicht, ein internes Datenset zur Evaluierung großer Sprachmodelle (LLMs) und Modellsysteme für komplexe juristische Aufgaben. Ein weiteres Projekt in diesem Zusammenhang ist die GenAI Benchmarks Initiative, die im August ihr erstes Treffen hatte (s. hierzu https://www.artificiallawyer.com/2024/08/06/genai-benchmarksinitiative-key-points-from-first-meeting/). Vogl begrüßte die Initiativen im Hinblick darauf, dass es kein blindes Vertrauen in die Outputs eine Sprachmodells geben dürfe. Die rechtlichen Ergebnisse zu validieren, liege in der Verantwortung der Juristen und der Legal-Tech-Gemeinschaft.

KI-Ausrichtung und Rechtstaatlichkeit. In den USA werden die Auswirkungen von KI auf Rechtstaatlichkeit und Demokratie intensiv diskutiert. Desinformation und Deepfakes spielen im Präsidentschaftswahlkampf eine große Rolle. Dem Gesetzgeber, den Regulierungsbehörden und Gerichten stellen sich Fragen zu etwaigen Ungleichgewichten zwischen „KI-Haves“ und „Have-nots“ sowie zum Schutz der Bürger vor einer „Flut von KI-Do-it-Yourself (DIY) Schrott“. Die regulatorische Antwort ist noch offen, so Vogl, auch was den Rechtsbereich (anwaltliches Beratungsprivileg etc.) betrifft. Die Reaktionen der großen KI-Anbieter auf die aktuelle Gesetzeslage sind unterschiedlich. OpenAI etwa versuchte kurz vor der Markteinführung seines neuen „Reasoning Models“ mit dem Codenamen „Strawberry“ Risiken dadurch zu minimieren, dass es die Technologie vorab den Behörden präsentierte. Der Facebook-Mutterkonzern Meta will sein open source KI-Modell LLama 3 aufgrund von Bedenken hinsichtlich des „unvorhersehbaren“ regulatorischen Umfelds vorerst nicht in der Europäischen Union einführen.

Zur Werteanpassung der KI verwies Vogl auf ein Projekt in CodeX, welches sich mit dem Problem befasst, dass menschliche Ziele und gesellschaftliche Werte noch nicht so spezifiziert werden können, um das Verhalten von KI zuverlässig in diesem Sinne zu steuern. In der Untersuchung wird aber beschrieben, wie Daten, die durch  juristische Prozesse generiert werden (Methoden der Gesetzesauslegung, der Vertragsgestaltung, der Anwendung von Rechtsnormen, der juristischen Argumentation usw.), die Spezifikation von menschlichen Zielen erleichtern können – und damit die Übereinstimmung zwischen Mensch und KI sowie deren Nutzen erhöht. Die Autoren sehen dies als einen Rahmen für das Verständnis von Recht als angewandte Philosophie der Multi-Agenten-Angleichung. 

Leseproben

RDi_Cover

RDi_2022_176-Aufsatz

BECK Stellenmarkt

Teilen:

Menü