Nikolas Guggenberger

KI und Recht: Neue Methodik, billige Entscheidungen und Ergebnisvorgaben


MMR 2019, 777   Künstliche Intelligenz (KI), soweit es das überhaupt wirklich gibt, ist z.T. bereits in der Realität der Rechtswissenschaft angekommen, gleichzeitig aber noch so weit entfernt, wie Science-Fiction à la Star Wars. Zunächst befasst sich die Rechtswissenschaft mit dem Phänomen KI, nutzt es aber bislang kaum als Werkzeug. Eine Vielzahl von Publikationen befasst sich mit konkreten Phänomenen wie etwa den Prognoseentscheidungen zur Einschätzung der Rückfallwahrscheinlichkeit von Straftätern oder der personalisierten Werbung und ihren Konsequenzen, andere fallen eher in die Kategorie der Gedankenexperimente, wie die Diskussionen um die „E-Person“ oder die vertragliche Zurechnung der Handlungen sog. autonomer Agenten. Sämtliche Perspektiven haben ihre Berechtigung. Wir sollten uns aber bewusste sein welche Perspektive wir einnehmen.

Im Folgenden geht es nur darum, drei ausgewählte Themenbereiche aufzugreifen, die teils akute Herausforderungen, teils Gedankenexperimente beschreiben:

■      Erstens kann KI die Rechtswissenschaft in ihrer Methodik beeinflussen.

■      Zweitens ist absehbar, dass die weitere Entwicklung KI die Knappheit von Ressourcen in Entscheidungsprozessen erheblich verändern wird.

      Drittens fordert eine Verlagerung von menschlichen auf algorithmische Entscheidungsprozesse die Annahme heraus, dass Gerechtigkeit und Fairness generell durch negative Prozessvorgaben definiert werden können und nicht nach positiven Ergebnisvorgaben verlangen.

 

Fortentwicklung der rechtswissenschaftlichen Methodik durch KI

Betrachtet man die eingangs erwähnten Publikationen zum Thema KI, haben sämtliche dieser Beiträge gemeinsam, dass sie durch Menschen verfasst wurden. Die Autorinnen und Autoren haben für ihre Werke in Büchern, Zeitschriften und Datenbanken recherchiert, Quellen gesichtet und Fußnoten formatiert. Künstlich war daran gar nichts. Und wenn etwas intelligent war, dann die Menschen, welche die jeweiligen Beiträge geschrieben haben.

Dieses nahezu vollständige Auseinanderfallen von thematischer Befassung und Methodik ist jedenfalls in diesem Umfang durch die Technik nicht induziert. Rechtswissenschaft könnte methodisch viel stärker auf Big Data, Text Mining und KI zurückgreifen. Das Case-Law-Access-Project der Harvard Law School etwa deutet an, in welche Richtung die Entwicklung der Rechtsanalyse gehen könnte. In schier unendlichen Datensätzen kann man hier nach Mustern suchen. Empirie ist dann kein Gegensatz mehr zu Dogmatik, sondern wird zum Werkzeug der Dogmatik selbst (vgl. Bar-Gill/Ben-Shahar/Marotta-Wurgler, 84 U. Chi. L. Rev. 7 (2017).

Damit ist das Potenzial solcher Projekte aber bei Weitem nicht erschöpft: Textanalysen, gestützt auf KI-Anwendungen Künstlicher Intelligenz, könnten völlig neue Muster erkennen, die für Menschen unsichtbar geblieben wären. All das ist aber keine generelle KI. Vielmehr handelt es sich nur um punktuelle Werkzeuge der Rechtswissenschaft, die etwa zum Nachweis bestimmter Tendenzen herangezogen werden können.

 

Abschätzung der Folgen von KI auf das Rechtssystem

Analysen großer Datenmengen und darauf aufbauende Entscheidungen werden künftig noch deutlich billiger werden. Das ist absehbar. Die große Frage wird sein, welche anderen Ressourcen dadurch, jedenfalls relativ, knapper und wertvoller werden und welche Auswirkungen diese Verknappung mit sich bringt. Hier lohnt ein Blick auf die Entwicklungen, welche durch das Internet und soziale Netzwerke angestoßen wurden: Rückblickend fällt es etwa leicht zu folgern, dass Falschinformationen auf Onlineplattformen prosperieren würden. Diese Entwicklungen vorauszusehen, war alles andere als trivial. Dennoch hatten einige sehr früh die richtigen Determinanten der beginnenden Entwicklung identifiziert. Die Kundgabe von Äußerungen wurde unglaublich viel billiger. Dieser Preisverfall hatte wiederum erhebliche Auswirkungen auf das Kommunikationsverhalten, die Gesellschaft und die Demokratie als Ganzes. Knapp und damit teuer wurde auf einmal die Aufmerksamkeit des Gegenübers, das sich plötzlich mit einem Vielfachen an Inhalten konfrontiert sah.

Es bietet sich an, diese Logik zur Abschätzung des Einflusses von KI zu übertragen. Klassische Big Data Anwendungen ermöglichen bereits seit längerem die Analyse größter Datenmengen zu geringsten Kosten. Die Rechtswissenschaft wird von dieser Entwicklung gerade erst erfasst. Die Verlagerung von Entscheidungen auf Algorithmen wird den Preis von Entscheidungen erheblich senken, wodurch wir mehr Entscheidungen treffen können. Personalisierte Regeln können entstehen. Rechtliche Vorgaben können bis ins letzte Detail durchgesetzt werden. Dies kann wiederum die Asymmetrien zwischen Parteien, die über unterschiedliche Analyseressourcen verfügen, weiter steigern. I.E. lassen die Gedanken zur Veränderung von Knappheiten durch technische Neuerungen zwar keine exakten Prognosen zu, sie helfen aber, realistische Szenarien zu entwerfen, um sich auf mögliche Veränderungen einzustellen.

 

Verlagerung des Rechts von Prozessvorgaben auf statistische Ergebnisvorgaben

Das Aufkommen von KI wird unsere Konzeption von Fairness und Gerechtigkeit von Prozessen schrittweise auf statistische Ergebnissvorgaben verlagern. Das Recht fokussiert sich bislang im Wesentlichen auf die negative Beschreibung unerwünschter Entscheidungskriterien. Gerechtigkeit oder Fairness werden in aller Regel als Prozess begriffen und nicht als Ergebnis.

Besonders deutlich wird dies im Bereich der Diskriminierungsverbote. Dazu ein Beispiel: Im vergangenen Jahr wurde bekannt, dass Amazon einen Recruiting-Algorithmus verwendete, der Frauen systematisch schlechter bewertete als Männer. Dies basierte nicht nur auf ausdrücklichen Angaben der Bewerberinnen, sondern auch auf indirekten Hinweisen. Im Fall eines anderen Programms wurden besonders (männliche) Bewerber empfohlen, die zwei Charakteristika erfüllten: Sie hießen Jared und spielten Lacrosse. Zurecht wurden Bedenken laut, dass der Einsatz solcher Algorithmen bestehende Diskriminierungen perpetuierten könne. Die Identifikation der Ursachen und Definition geeigneter Gegenmaßnahmen ist allerdings nicht ganz trivial. Wären nur die Input-Daten fehlerhaft, wäre eine Korrektur einfach. Das Gleiche gilt, wenn der Algorithmus einen Defekt aufwiese. Einen Bug im Code könnte man mit entsprechendem Aufwand beheben.

Deutlich komplexer wird die Problematik, wenn man davon ausgeht, dass der Algorithmus in seiner Einschätzung der Erfolgschancen im Unternehmen richtig lag, da er lediglich anhand der bisherigen Mitarbeiter Muster erfolgreicher Karrieren identifiziert und auf dieser Grundlage neue Bewerber kategorisiert hat. Der Algorithmus war dann nur der Überbringer einer toxischen Botschaft, nämlich, dass der Erfolg in besagtem Unternehmen wohl stark korreliert mit dem Vornamen „Jared“ und dem Hobby „Lacrosse“, mit Merkmalen also, die auf ein bestimmtes Geschlecht und einen bestimmten sozio-ökonomischen Hintergrund hindeuten. Nach dieser plausiblen Interpretation ist nicht zuvorderst der Algorithmus das Problem, sondern die „Jared-Lacrosse“-Kultur des Unternehmens.

Das Problem diskriminierender Strukturen ist kein neues. Algorithmen schreiben systemische Diskriminierungen aber konsequenter fort, als menschliche Entscheidungsträger dies je könnten. Hierin liegt auch der Grund, die Wirksamkeit der klassischen Diskriminierungsverbote bei algorithmischen Entscheidungen zu hinterfragen. Diskriminierungsverbote verbieten, wie der Name sagt, Diskriminierungen anhand spezifischer Merkmale. Sie geben grundsätzlich keine richtige oder faire Entscheidung vor. Es bleibt den Entscheidern überlassen, den Entscheidungsprozess i.Ü. auszufüllen. Damit musste man sich bisher zwangsläufig abfinden, weil nicht erkennbar ist, welche Prozesse im menschlichen Gehirn ablaufen. Bei algorithmischen Entscheidungen ist dies anders. Zwar wird häufig die fehlende Transparenz algorithmischer Entscheidungen kritisiert, relativ zu menschlichen Entscheidungen sind sie aber sehr transparent oder jedenfalls testbar. Genau hierin liegt die Herausforderung. Entscheidungskriterien müssen direkt oder indirekt positiv definiert werden. Plötzlich wissen wir im Vorhinein genau, welche Kriterien im Regelfall zu welchen Resultaten führen werden. Mit dem Einsatz bestimmter Algorithmen entscheiden wir uns zwangsläufig und nachweisbar für bestimmte statistische Resultate.

Außerdem sind Diskriminierungsverbote an Menschen gerichtet und unterstellen damit zwangsläufig gewisse Annahmen über menschliches Denken. Dazu gehört insbesondere die Unterstellung, dass Menschen in ihrem Denken Fortschritte machen und aus unbegrenzten Erkenntnisquellen schöpfen können. Algorithmische Entscheidungen sind jedenfalls bislang fest in dem Datenset verhaftet, an dem sie trainiert wurden. Andere Erkenntnisquellen bleiben ihnen verschlossen. Diskreter Wandel wird damit nahezu ausgeschlossen. Wenn aber zu erwarten ist, dass Algorithmen auch dann zwangsläufig strukturerhaltend wirken, wenn sie richtig funktionieren, müssen wir verstärkt über statistische Ergebnisvorgaben nachdenken und diese festschreiben.

 

Fazit

Die Entwicklung von KI wird die rechtswissenschaftliche Methodik entscheidend erweitern und die vom Rechtssystem als natürlich unterstellte Knappheit von Entscheidungsressourcen dramatisch verändern. Eine Verlagerung von Entscheidungen auf Algorithmen wird das Rechtssystem zwingen, seine Konzeption von Fairness zu überdenken und statistische Ergebnisvorgaben positiv zu formulieren, anstatt (nahezu ausschließlich) auf die Ausgestaltung von Prozessen zu vertrauen.

 

 

Dr. Nikolas Guggenberger

ist Executive Director des Yale Information Society Projects und Lecturer and der Yale Law School in New Haven, USA.