Von Prof. Dr. Katja Langenbucher, Professur für Bürgerliches Recht, Wirtschaftsrecht und Bankrecht im House of Finance der Goethe-Universität Frankfurt a.M.
Am 21.4. 2021 hat die Europäische Kommission einen Vorschlag für ein „Gesetz über künstliche Intelligenz“ vorgelegt (COM(2021)206 final). Es versteht sich der Schaffung eines „Ökosystems für Vertrauen“ (Vorbemerkungen S. 6) verpflichtet, soll aber so innovationsoffen wie möglich sein. Zu diesem Zweck werden „KI-Systeme“ zunächst weit definiert. Der Regulierungsansatz folgt dann – wie bereits die Datenschutzgrundverordnung – einem deduktiven Ansatz: Grundprinzipien sollen für sämtliche KI-Systeme Anwendung finden, ob es um selbstfahrende Autos, medizinische Geräte oder Kreditscoringmodelle geht. Eine Absage wird damit insbesondere einem sektoralen Regelungsdesign erteilt, wonach Normen passgenau auf den jeweiligen Einsatzbereich zuzuschneiden wären (den deduktiven EU-Ansatz mit dem sektoralen US-Ansatz mit Blick auf Kreditscoring vergleichend: Langenbucher, EBLR 2020, 519).
Die Verordnung ordnet KI-Systeme vier Kategorien zu, die von Null-Regulierung über minimale Regulierung bis zu Hoch-Risiko und schließlich ganz verbotenen KISystemen reichen. Entscheidend sind dabei drei Risikotypen: Gesundheit, Sicherheit und Grundrechte. Grundrechtsrisiken identifiziert der Vorschlag unter anderem mit Blick auf Verzerrungen, die unter dem Begriff der „biased AI“ Eingang in die Computerwissenschaft gefunden haben (Vorbemerkungen S. 2). Erwägungsgrund (37) präzisiert das für den Bereich der Finanzwirtschaft. So werden „insbesondere KI Systeme, die zur Kreditpunktebewertung oder zur Bewertung der Kreditwürdigkeit natürlicher Personen verwendet werden (…) als Hochrisiko-KI Systeme eingestuft“. Biases und Grundrechtsrisiken betreffen in diesem Kontext die „Diskriminierung von Personen oder Gruppen“, die Fortschreibung „historischer Diskriminierungsmuster“ aber auch die Entwicklung „neuer Formen von Diskriminierung“.
Dem Fokus auf Diskriminierung durch Algorithmen im Kontext der Kreditentscheidung greift die EU Kommission eine globale Debatte auf (an einem Fallbeispiel: Langenbucher/Corcoran, ECFR 2020 – im Erscheinen). KI-Anwendungen, die etwa auf der Basis historischer Daten trainiert werden oder den digitalen Fußabdruck eines Kreditnehmers ermitteln, um Korrelationen zwischen allerlei Variablen und der Kreditausfallwahrscheinlichkeit zu errechnen, führen nicht nur zu spannenden juristischen Fragen für Hochschullehrer, die sich mit mittelbarer Diskriminierung in der Abwägung mit „statistischer Diskriminierung“ im Kontext jeder Kreditentscheidung befassen möchten. Der EU Vorschlag bringt für Marktaufsichtsbehörden neue Aufgaben – und damit die Notwendigkeit, neue Kompetenzbereiche aufzubauen. Für Banken ist das interne Risikomanagement unter Art. 74 CRD IV anzupassen. Unternehmen, die AI-Scoring anbieten, sehen sich plötzlich dem Zugriff von Regulierungsbehörden ausgesetzt. Ob freilich Grundrechtsrisiken sich für Tests und Messungen ebenso eignen wie Gesundheit und Sicherheit wird sich noch zeigen müssen.
Das Editorial ist erschienen in RDi 12/2021, III.