Prof. Dr.-Ing. Christoph Sorge ist Inhaber der Professur für Rechtsinformatik an der Universität des Saarlandes und Schriftleiter der KIR.
KIR 2024, 77 Der europäische Gesetzgeber verpflichtet mit Art. 4 KI-VO die Anbieter und Betreiber von KI-Systemen, Maßnahmen zu treffen, die ein ausreichendes Maß an KI-Kompetenz sicherstellen. Mit dieser Norm befasst sich Fleck im vorliegenden Heft (Fleck KIR 2024, 99) und trägt damit zu einer Diskussion bei, die in einer Konkretisierung der Anforderungen münden könnte.
Diese Diskussion muss aber auch über den Adressatenkreis des Art. 4 KI-VO hinausgeführt werden. KI ist nicht nur ein Hype mit einer überschaubaren technischen Grundlage, wie etwa im Fall der Blockchain. Vielmehr zeigt die Bandbreite der bereits etablierten KI-Anwendungen sowie der wissenschaftlichen Diskussionen, dass KI in zahlreichen – womöglich fast allen – Wirtschaftsbereichen Einzug hält. Über Social Bots (vgl. hierzu Kern KIR 2024, 94 – in diesem Heft) kann KI darüber hinaus auch die Meinungsbildung in einer demokratischen Gesellschaft beeinflussen. Das mag teilweise durch Regulierung der Plattformbetreiber zu adressieren sein, doch könnten Kenntnisse der Plattformnutzer über Mechanismen der Einflussnahme ebenfalls einen Beitrag zu deren Einhegung leisten.
Die Vermittlung von KI-Kompetenz wird daher sicherlich bereits Bestandteil der schulischen Ausbildung sein müssen. Auch die Hochschulen sind gefragt, jedenfalls die theoretischen Grundlagen der im jeweiligen Fach relevanten KI-Anwendungen sowie die daraus folgenden Einsatzmöglichkeiten und -beschränkungen zu vermitteln. Rechtswissenschaftliche Fakultäten sollten hier keine Ausnahme bilden. Sie sind als Anbieter juristischer Vorlesungen für Studiengänge wie Data Science, Informatik oder Wirtschaftsinformatik gefragt, deren Absolventen mit der Entwicklung von KI-Systemen befasst sind. Jenseits tiefer technischer Kenntnisse und Grundlagen der Ethik benötigen diese Studierenden auch juristische Grundkenntnisse, um ein Gespür für problematische Praktiken entwickeln zu können. Juristische Fakultäten können daneben eine wesentliche Rolle in der Weiterbildung spielen, denn die rapide Entwicklung führt zu einem stetigen Nachholbedarf bei vielen Praktikern.
Neben der Vermittlung des Rechts der Künstlichen Intelligenz sind juristische Fakultäten auch prädestiniert, in Zusammenarbeit mit technischen Fakultäten Weiterbildungsangebote für KI-Anwendungen in der juristischen Praxis zu entwickeln – wie dies vereinzelt auch schon geschieht. Es stellt sich aber auch die Frage nach der Vermittlung von technischer KI-Kompetenz im grundständigen Studium der Rechtswissenschaft.
Doch welche technischen Kenntnisse benötigen Juristen? Der Anspruch eines Hochschulstudiums kann sich nicht in der Bedienung einzelner KI-Werkzeuge erschöpfen; ein solches Wissen hat ohnehin nur eine geringe Halbwertszeit.
Die technischen Grundlagen Künstlicher Intelligenz und insbesondere des maschinellen Lernens lassen sich nur schwer ohne einen hohen Mathematikanteil vermitteln. Bei einfachen Verfahren, etwa dem Erlernen von Entscheidungsbäumen, ist dies ausgehend vom Abiturniveau noch in recht kurzer Zeit machbar – und auch diese Verfahren haben noch eine Daseinsberechtigung, sind sie doch für viele Aufgaben ausreichend, mit wenig Rechenaufwand durchführbar und vergleichsweise transparent. Ihre Funktionsweise zu vermitteln, kann daher in spezialisierten Weiterbildungsstudiengängen oder möglicherweise auch im Rahmen eines entsprechenden Schwerpunktbereichsstudiums sinnvoll sein.
Maschinelle Lernverfahren, die für komplexere Aufgaben geeignet sind, sind idR auch mathematisch anspruchsvoller. Gerade die in den letzten Jahren so erfolgreichen neuronalen Netze, die auch Grundlage großer Sprachmodelle (LLMs, wie sie zB bei ChatGPT oder Microsoft Copilot eingesetzt werden) sind, lassen sich nur mit hohem Zeitaufwand verstehen. Ihre Betrachtung außerhalb spezialisierter Studiengänge wird sich daher zwangsläufig auf Teilaspekte beschränken oder phänomenologisch bleiben müssen. Auch daraus kann ein Mehrwert entstehen – technische Grenzen eines großen Sprachmodells zu kennen mag weniger nachhaltig sein als ihre Ursachen zu verstehen, hilft aber bei ihrem Praxiseinsatz bereits ungemein. Angesichts des rapiden technischen Fortschritts in diesem Gebiet ist es aktuell ohnehin – selbst für Experten – herausfordernd, das eigene Wissen über dessen Grundlagen aktuell zu halten.
Es bleibt ein wesentlicher Aspekt – die Evaluation von KI-Systemen. Zu verstehen, wie man deren Qualität misst und was bestimmte Kennzahlen für den Praxiseinsatz aussagen, ist für Anwender und Entscheider von zentraler Bedeutung – und jedenfalls in den Grundlagen auch ohne ein Informatikstudium vermittelbar. Gleichzeitig zeigen sich hier Paradoxa und Fallstricke der Statistik:
• Eine Genauigkeit eines Klassifikationsverfahrens von 98 % (es sind also 98 % aller insgesamt vorgenommenen Klassifikationen, wie etwa Vorhersagen von Gerichtsentscheidungen, korrekt) erscheint auf den ersten Blick gut. Dennoch kann ein solches Verfahren völlig nutzlos sein: es könnte etwa für die Vorhersage des Erfolgs einer Verfassungsbeschwerde darin bestehen, stets vorherzusagen, der Verfassungsbeschwerde werde nicht stattgegeben.
• Bei einem Gesichtserkennungsverfahren, das gesuchte Straftäter mit einer Falsch-positiv-Rate unter einem Prozent erkennen kann (also unter ein Prozent der Personen, die nicht auf der Fahndungsliste stehen, als gesuchte Straftäter erkannt werden), wird der Einsatz an einem belebten Platz dazu führen, dass ein hoher Prozentsatz der gemeldeten Treffer falsch positiv ist. Wenn das System also einen Straftäter meldet, ist trotzdem mit hoher Wahrscheinlichkeit davon auszugehen, dass es sich nicht um einen solchen handelt. Das liegt daran, dass nur nach einem sehr kleinen Prozentsatz der Bevölkerung gefahndet wird.
Diese und andere nachvollziehbare, aber unintuitive Erkenntnisse sind wichtig für die Einordnung der Qualität eines KI-Systems; sie betreffen aber letztlich alle Klassifikationsverfahren und damit auch viele Entscheidungssituationen. Das gilt auch für Entscheidungen mit juristischem Bezug. So ist in der forensischen Statistik die prosecutor`s fallacy („Fehlschluss des Strafverfolgers“) bekannt – eine Fehlanwendung von Statistik, die durch mehrere in Großbritannien aufgedeckte Justizirrtümer (insbesondere im Fall von Sally Clark, deren Verurteilung als vermeintliche Mörderin ihrer beiden Kinder sich maßgeblich auf diesen und andere statistische Fehler stützte) Berühmtheit erlangte. Statistik kann schließlich auch beim Nachweis von Diskriminierung – durch KI oder menschliche Entscheider – eine wesentliche Rolle spielen; die Vermittlung ihrer Grundlagen würde dazu beitragen, Fehlinterpretationen (etwa aufgrund des sog. Simpson-Paradoxons) zu vermeiden. Das Lehren von KI-Kompetenz könnte somit einen nicht zu unterschätzenden Sekundärnutzen mit sich bringen.
Schließlich – und in dieser Zeitschrift wohl nicht überraschend – sei darauf hingewiesen, dass Interdisziplinarität in der Lehre nicht nur bedeuten muss, dass Juristen technische Grundlagen und Informatiker die juristische Methodenlehre lernen. Wenn auch Studien- und Prüfungsordnungen nicht immer Raum für Lehrveranstaltungen lassen, die von Studierenden mehrerer Fachbereiche besucht werden, können diese – falls ihre Durchführung dann doch gelingt – überaus fruchtbare, echt interdisziplinäre Diskurse hervorbringen. Es steht zu hoffen, dass der Boom der KI einen (weiteren) Anstoß dazu gibt.