Notwendigkeit einer intelligenten Regulation der KI
Dr. Jyn Schultze-Melling ist Rechtsanwalt in Berlin und Mitglied des Wissenschaftsbeirats der ZD. MMR 2021, 289 Am 25.5.2018 trat die DS-GVO in Kraft und veränderte die Welt. Gerade mal 17 Tage davor veröffentliche Google einen mittlerweile von mehr als 4 Mio. Nutzer*innen aufgerufenen Videomitschnitt einer Demonstration auf seiner Hausmesse I/O, bei dem eine Künstliche Intelligenz (KI) selbstständig einen Frisörtermin vereinbart. Dass die Empfängerin dieses Anrufs tatsächlich nicht zu bemerken scheint, dass sie mit einem Computer spricht, lässt im Video die anwesenden Technologie-Enthusiasten in Begeisterungsstürme ausbrechen. Ob das an den ganz im Sinne des aktiven Zuhörens von der KI gekonnt in die Konversation eingebauten bestätigenden „Mm-hmm“ lag oder an der Tatsache, dass die Dame schnellstmöglich zu ihren wartenden Kund*innen zurückkehren wollte und deswegen nicht so genau auf die beim näheren Hinhören vielleicht etwas übertrieben professionell klingende Stimmmodulation der KI achtete, kann dahingestellt bleiben. Technisch faszinierend, provoziert diese Demonstration nämlich durchaus auch Sorgen. Was, wenn es hier nicht um die Vereinbarung eines harmlosen Termins gegangen wäre, sondern um Telefonbetrug? Solange Kriminelle, die ahnungslosen Opfern am Telefon weismachen, sie würden ihren PC von einem unbemerkten Problem befreien und dabei Online-Konten leerräumen, noch menschliche Kapazitäten in Call-Centern aufbauen müssen, um ihr Geschäftsmodell zu skalieren, sind diesem unternehmerischen Drang zumindest gewisse Grenzen gesetzt. Würde eine KI wie die von Google das nicht um einige Größenordnungen effizienter gestalten können? Und könnte man ihr einen Vorwurf machen, dass sie sich für kriminelle Zwecke instrumentalisieren lässt? Oder müsste sie das - intelligent wie sie zu sein scheint - nicht selbst erkennen und umgehend die Behörden informieren?
Möglicherweise waren es Videos wie dieses, die bei europäischen Politiker*innen eine im Vergleich zur Google-Audienz eher gegenteilige Reaktion ausgelöst haben. Diese scheint sich nun, etwas über drei Jahre später, in Form eines Entwurfs für eine neue KI-Regulation manifestiert zu haben. Dabei kann man sich eines gewissen Déjà-vu-Effekts nicht entziehen. 2012 trat die EU-Kommission schon einmal an, um im Bereich des Datenschutzes einen vernünftigen Kompromiss zwischen dem harten und konsequenten Schutz der Freiheitsrechte der EU-Bürger*innen und den berechtigten wirtschaftlichen Interessen der datenverarbeitenden Industrie zu finden. Das Ergebnis dieses Prozesses wird heute selbst von ihren Befürworter*innen häufig als ein politisch motivierter Kompromiss beschrieben, und die wirtschaftlichen, sozialen und rechtlichen Konsequenzen dieses Kompromisses beschäftigen große und kleine Unternehmen ebenso wie eine Heerschar von Anwält*innen, Berater*innen, Gerichten und Aufsichtsbehörden.
Nun geht es also um KI. Dabei handelt es sich keineswegs um ein wirklich neues Thema. Immerhin gilt als Startschuss dieser Technologie das Zusammenkommen einer Reihe von renommierten Forscher*innen i.R.d. Darthmouth Conference im Jahre 1956. Diese bezogen sich bei ihrer Arbeit u.a. auf die Vorarbeiten von Ausnahmepersönlichkeiten wie dem Briten Alan Turing, dem Schöpfer des nach ihm benannten Tests der Eignung einer KI, im Gespräch mit einem Menschen selbst als Mensch durchzugehen. Der Google-Assistent, der diesen Test dann viele Jahrzehnte später im Gespräch mit einem Frisörsalon so bravurös besteht, wäre nach dem Willen der europäischen Politik aber ein Problem. Der nun am 21.4.2021 vorgelegte Entwurf einer Verordnung (Artificial Intelligence Act - COM(201) 206 final) schreibt insbesondere vor, dass sich in der Interaktion mit Menschen eine KI als solche identifizieren muss.
Auch ansonsten gibt es eine Reihe von Aspekten in dem Entwurf, die von einem ausgeprägten Misstrauen gegenüber den unterstellten Fähigkeiten einer Computerintelligenz zeugen. Manche Anwendungsbereiche etwa sollen von vorneherein ausgeschlossen werden. Dazu gehören Systeme, die geeignet sind, Menschen durch den Einsatz unterbewusster Mechanismen oder durch Ausnutzen von altersbedingten oder sonstigen Schwächen in ihrer Entscheidungsfähigkeit zu manipulieren und gleichzeitig das Risiko eines psychologischen oder physiologischen Schadens herbeizuführen. Auch wenn die ersten Kommentator*innen darin begeistert das Ende schlechter Werbung erkennen, drängen sich viele ebenso naheliegende wie praxisrelevante Abgrenzungsfragen auf. Dieses Problem ist dabei keins der schlussendlichen Formulierung, sondern eins der grundlegenden Bewertung. Dinge, wie das vom chinesischen Staat in der Breite eingeführte Social Scoring sind in erster Linie kein rechtliches, sondern ein ethisches Problem. Damit ist es aber auch ein Thema, das auf Grund seiner vielen komplexen Aspekte typischerweise nur schwer in einer größeren Runde von Expert*innen, geschweige denn in der Öffentlichkeit zu diskutieren ist. Dass wir zudem in der Ära der großen politischen Populisten leben, die eine grundlegende Verachtung gegenüber einer fakten-basierten und dem gegenseitigen Respekt unterliegenden Diskussion im Interesse des Austauschs von validen Argumenten hegen, wird den Austausch in den kommenden Jahren nicht leichter machen.
Währenddessen entwickelt sich die Technologie selbst in Riesenschritten. Länder wie China und die USA preschen voran, ohne ihre Motivationen und Abwägungen mit dem Rest der Welt zu teilen. Und zwar nicht nur mit autonomen Autos, sondern auch mit fliegenden und laufenden autonomen Kampfrobotern, die keiner menschlichen Letztentscheidung mehr unterliegen. Vor dem Hintergrund solcher Argumente erscheint die Frage gestattet zu sein, weshalb der Entwurf ausdrücklich keine Regelungen zur Entwicklung von sog. „Lethal Autonomous Weapon Systems“ (LAWS) für das Militär beinhaltet. Denn zumindest dort erscheint die Einschätzung der Risikoträchtigkeit einer KI noch vergleichsweise einfach zu sein. In anderen Bereichen ist es hingegen viel schwieriger, zwischen harmloser KI und gefährlicher KI zu unterscheiden. In einem zweiseitigen Annex listet der Entwurf Beispiele solcher Lösungen auf, die als hochgradig riskant eingestuft werden. Dazu gehören nicht nur die biometrische Identifikation von Menschen, sondern auch der Einsatz als Sicherheitskomponente in Kritischen Infrastrukturen, i.R.d. Auswahl von Bewerber*innen in Unternehmen oder bei der Unterstützung der wissenschaftlichen Forschung i.R.d. Justizarbeit.
Dabei fällt weiterhin auf, dass es stets nur um das Inverkehrbringen und die Verwendung derartiger Systeme geht. Deren Erforschung unterliegt keinen Beschränkungen, was ebenfalls berechtigte kritische Fragen auslöst. Denn KI ist nicht nur irgendeine Technologie. Sie gilt als die Schlüsseltechnologie, und wird von manchen sogar als die letzte große Erfindung der Menschheit betrachtet, die fortan den Gestaltungsspielraum für menschliche Innovation und schöpferische Kreativität mit ihrer zumindest theoretisch unbegrenzt skalierbaren Kalkulationskraft komplett übernehmen wird. Unabhängig davon, ob man diese Einschätzung und das damit verbundene Schreckensszenario der unweigerlich kommenden Versklavung der Menschheit teilt - und immerhin darf man sich dann rühmen, einer Meinung mit berühmten Menschen wie Stephen Hawking und Elon Musk zu sein - oder ob man eher davon ausgeht, dass sich die weiterhin einzigartige menschliche und die durch technische und ethische Regeln kontrollierbare KI gegenseitig zum Vorteil aller befruchten wird, dürfte jedem Betrachter zumindest erkennbar sein, dass viel auf dem Spiel steht. Wir brauchen dringend eine breit aufgestellte, ehrliche, vorurteilsfreie und vor allem faktenbasierende gesellschaftliche Diskussion um ethische Werte und um die Priorisierungen, die daraus für die Erforschung und den Einsatz der KI folgen. Die bisherige Auseinandersetzung wird zurzeit entweder von Expert*innen unter Expert*innen oder von Nicht-Expert*innen zwar in der Öffentlichkeit, aber leider oft genug auf Grundlage undifferenzierter Tatsachenbehauptungen geführt. Es ist wie damals - den einen geht vieles viel zu weit, den anderen alles nicht weit genug und am Ende diktiert der technische Fortschritt, wie eine Technologie alltagstauglich wird.
Dies sollte im Fall der KI tunlichst vermieden werden und immerhin gibt es dafür schon gute Grundlagen. 2020 verabschiedete das EU-Parlament eine Entschließung zur Schaffung eines „Rahmens für die ethischen Aspekte von künstlicher Intelligenz, Robotik und damit zusammenhängenden Technologien“. Dieser Beschluss greift die u.a. schon 2018 veröffentlichte Empfehlungen einer von der EU-Kommission eingesetzten Expertengruppe auf. Den aber damals notgedrungen noch sehr abstrakten Grundgedanken der „Ethik-Leitlinien für eine vertrauenswürdige KI“ - etwa dass die Entwicklung, Einführung und Nutzung von KI-Systemen die Anforderungen insbesondere an den Schutz der Privatsphäre und das Datenqualitätsmanagement gewährleisten müssen - muss nun aber die harte Arbeit am Detail folgen.
Dazu müssen in praktisch allen Rechtsgebieten grundlegende Fragen geklärt werden - insbesondere im Datenschutzrecht. Dabei geht es nicht einmal um die zugegebener Weise extrem spannende, aber im Moment auch noch ebenso utopische Frage, ab wann eine KI eigentlich selbst als ein im datenschutzrechtlichen Sinne Verantwortlicher betrachtet werden muss. Die Fragen, die sich schon heute stellen, sind erheblich weniger philosophischer Natur:
# Wie verhält sich das Datensparsamkeitsgebot der DS-GVO zum Datenhunger des KI-gestützten maschinellen Lernens? # Wie kann man als Anwender einer KI-Lösung die Betroffenen den Anforderungen des Art. 12 DS-GVO entsprechend angemessen transparent und leicht verständlich informieren? # Was bedeuten konkret datenschutzfreundliche Voreinstellungen i.S.d. Art. 25 DS-GVO bei einer KI? # Kann man als Betroffener wirksam eine Einwilligung dahingehend erklären, dass eine KI mit den eigenen personenbezogenen Daten arbeiten darf, wenn diese Verarbeitung nur für die KI selbst transparent ist? # Und wie stellt sich das Recht auf Vergessenwerden dar, wenn personenbezogene Daten als essenzieller, aber nicht mehr isolierbarer Bestandteil in die automatisierten Abwägungsprozesse einer KI eingeflossen sind?
2012 im Februar-Editorial der ZD schrieb ich einen Satz zu den Überlegungen einer Verordnung im europäischen Datenschutz, der auch hier gilt: „Was wir brauchen, ist ein handwerklich sorgfältiger, klar und verständlich geschriebener, inhaltlich ausdifferenzierter und tatsächlich die Anforderungen des Alltags reflektierender Kommissionsentwurf...“. (Schultze-Melling, ZD 2012, 97). Und auch das von mir seinerzeit direkt im Anschluss daran verwendete Zitat von Claus Ulmer passt wieder wie die Faust auf das sprichwörtliche Auge: „Der Weg zur Verordnung ist lang und nicht wenige werden versuchen, auf den Inhalt im Rahmen des parlamentarischen Verfahrens noch gehörigen Einfluss zu nehmen.“
Damals war man einfach nur optimistisch gespannt, was am Ende dabei für den Datenschutz und damit für unser aller Persönlichkeitsrechte herauskommen würde. Heute ist die Situation um ein Vielfaches drängender und scheinen die potenziellen Konsequenzen von Fehleinschätzungen erheblich dramatischer zu sein. Es bleibt nur zu hoffen, dass wir alle aus den Fehlern der Vergangenheit gelernt haben und die so dringend benötigte, aber noch einmal erheblich komplexere Regelung der KI nicht mit den gleichen Geburtsschmerzen auf die Welt kommt, die bei der DS-GVO bis heute noch nachwirken. |
.jpg)


