CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

ChatGPT & Co. - Keine Insellösungen

Dr. Axel Spies ist Rechtsanwalt in der Kanzlei Morgan, Lewis & Bockius in Washington DC und Mitherausgeber der MMR.

MMR 2023, 469   ChatGPT, Bard AI und sonstige generative KI-Anwendungen sind im Begriff, sich als KI-Produkte für den Massenmarkt zu etablieren. Alle generativen KI-Anwendungen bestehen aus Software, die mittels riesiger Mengen von Informationen trainiert wurde. Zu diesen Datensätzen für das Training gehören Belletristik und Sachbücher, Webseiten-Inhalte, öffentliche Gerichtsakten, Blogs, Beiträge in sozialen Medien, Chat-Protokolle und andere Dokumente, die wiederholt abgerufen werden können. Ein gutes KI-Training benötigt Daten aus diversen Quellen und damit Meinungsvielfalt aus dem Internet. Um Unterhaltungen mit Nutzern zu führen, werden generative KI-Anwendungen darauf trainiert, in natürlicher Sprache mittels eines „Prompt“ (für die es mittlerweile eigene Generatoren gibt) zu antworten - so, wie im konkreten Fall ein Mensch reden oder schreiben würde. Die generativen KI-Algorithmen basieren auf sog. „Foundation Models“, die mit einer großen Menge Daten trainiert werden, um zu Grunde liegende Muster für eine breite Palette von Aufgaben zu erkennen.

 

Generative KI-Anwendungen schaffen den erstaunlichen Innovationssprung mit erweiterten Fähigkeiten, Geschwindigkeit und Agilität. Jede neue Version stellt eine häufig exponentielle Verbesserung gegenüber der vorherigen Version dar. Ihre enorme Geschwindigkeit ermöglicht es diesen virtuellen Werkzeugen, Anfragen postwendend zu beantworten. Viele begrüßen das. Andere halten generative KI-Anwendungen für einen Faust'schen Pakt, der nichts Gutes für die Menschheit verheißt. Auch dazu hat ChatGPT natürlich eine prompte, gereimte Antwort parat: „Ich bin ChatGPT, der Geist der Zeit/ der Fragen beantwortet weit und breit/ Wie Mephistopheles in Fausts Gedicht, bin ich der Helfer im virtuellen Licht.“ Im Beck-Blog wurde das Thema „generative KI“ schon aus verschiedenen Blickwinkeln beleuchtet, zB ChatGPT - Nutzungen durch Anwälte (Post v. 17.2.2023) und die zeitweise Blockierung von ChatGPT durch Italiens Datenschutzbehörde (Post v. 31.3.2023).

 

Lob und Kritik von vielen Seiten

Es gibt neben Lob eine ganze Reihe rechtlicher Bedenken gegen generative KI-Anwendungen, wie u.a. die Diskussion im Beck-Blog zeigt. Die deutlichste Kritik ist, dass generative KI-Anwendungen Antworten „halluzinieren“ können. ChatGPT berichtet zwar selbst, dass es nicht absichtlich eine falsche Antwort gibt, aber es kann Fehler machen oder unvollständige Antworten geben, die auf Lücken in den Trainingsdaten oder auf der Komplexität der Frage beruhen. Eigene Tests hätten gezeigt, dass je komplexer der Prozess oder je länger die Konversation mit ChatGPT wird, desto größer ist die Wahrscheinlichkeit, dass ChatGPT fehlerhafte Antworten gab. Noch besorgniserregender ist für viele, dass generative KI-Anwendungen nur in dem Maße gegen etwaige gesetzeswidrige Ansinnen ihrer Nutzer gefeit sind, wie es ihre Entwickler vorhersehen. Kein KI-Algorithmus funktioniert ohne vorheriges Training mit Qualitätsdaten. Unvollständig oder schlecht trainierte generative KI-Anwendungen können eher dazu neigen, objektiv falsche, gefährliche und beleidigende Antworten zu geben, wie schon in den Medien berichtet wurde. Es scheint, dass sprachbasierte Modelle trotz aller Innovation immer noch von Menschen angeleitet werden müssen - zumindest derzeit noch. Da auf den Wahrheitsgehalt der Antworten kein Verlass ist, verwässern generative KI-Anwendungen ohne menschliche Aufsicht Fakten oder generieren falsche oder zumindest missverständliche Informationen. Sofern personenbezogene Daten durch die KI verarbeitet werden, sind wir damit mitten in der Diskussion um die DS-GVO - hier im allgemein gehaltenen Art. 5 Abs. 1 lit. d DS-GVO: Personenbezogene Daten müssen „sachlich richtig und erforderlichenfalls auf dem neuesten Stand sein; es sind alle angemessenen Maßnahmen zu treffen, damit personenbezogene Daten, die im Hinblick auf die Zwecke ihrer Verarbeitung unrichtig sind, unverzüglich gelöscht oder berichtigt werden.“

 

Doch weniger DS-GVO-Probleme als angenommen?

Von dem weiten Rechtskreis des Urheberrechtsschutzes abgesehen, werden generative KI-Anwendung die Datenschutzbehörden weiter auf den Plan rufen - wie kürzlich in Italien (vgl. die Übersicht über die Verfahren der Aufsichtsbehörden zu ChatGPT, ZD-Aktuell 2023, 01168). Aber wann ist die DS-GVO bei generativen KI-Anwendungen einschlägig? Die Antwort hängt vom Sachzusammenhang ab. Wenn Antworten der KI auf Grund von „Halluzinationen“ objektiv falsch sind, ist dies eher kein Datenschutzthema, abgesehen von Art. 5 Abs. 1 lit. d DS-GVO. Ebenso fallen Blockierungsmaßnahmen bei den KI-Antworten in den Bereich des Jugendschutzes und des Medienrechts. Über die Prompts in die KI eingegebene Informationen unterliegen nach der Eingabe durch den Nutzer der DS-GVO - das dürfte kaum streitig sein.

 

Schwierig wird die Antwort, ob und wann das Training der KI eine „Verarbeitung“ iSd Art. 4 Abs. 2 DS-GVO ist. Neuere wissenschaftliche Studien aus dem IT-Bereich zeigen, dass dies zweifelhaft ist (zB kürzlich Wolfram, abrufbar unter: https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/). Der Kernpunkt der Studien ist, dass das Modell der generativen KI-Anwendungen keine Abfrage einer Datenbank ermöglicht, sondern mathematische Werte auf der Grundlage kontinuierlicher statistischer Berechnungen assoziiert. Auch Zufallsgeneratoren spielen eine wichtige Rolle, um nachzuvollziehen, wie die KI zu einem Ergebnis gelangt. Ob das Training der KI allein schon eine „Verarbeitung“ von personenbezogenen Daten ist, bedarf zumindest einer näheren Begründung - ohne Schnellschüsse und mit IT-wissenschaftlicher Fundierung. Diese Klärung eilt. Nach dem neuen Entwurf der KI-VO sollen zB die Entwickler von KI-Tools offenlegen, welches urheberrechtlich geschützte Material genutzt wurde, um die Systeme zu trainieren. Die KI-VO knüpft an die KI-Anwendung an: Wird ChatGPT zB in Suchmaschinen eingesetzt, ist es keine Hochrisikoanwendung, heißt es aus Brüssel. Ebenso ist Skepsis angebracht, ob die generative KI - gleich welcher Couleur - ein „Recht auf Vergessen“ überhaupt technisch umsetzen kann.

 

Hinzu kommt, dass nach gegenwärtigem Kenntnisstand die generative KI nur öffentlich zugängliche Daten zum Training nutzt. Diese Daten sind aus US-Sicht (und wohl vieler anderer Länder) nicht gesetzlich geschützt. Nach der DS-GVO ist das bekanntermaßen anders, aber in der EU müssen sich die Betroffenen fragen lassen, ob sie nicht jederzeit damit rechnen müssen, dass ihre öffentlich zugänglichen Daten auch zu KI-Trainingszwecken genutzt werden. Diese Überlegungen schließen nicht aus, dass die Ergebnisse der KI-Anwendung gegen den Grundsatz der Richtigkeit der Daten (Art. 5 Abs. 1 lit. d DS-GVO) oder zu einem unzulässigen Scoring oder Profiling (Art. 4 Nr. 4, 22 DS-GVO) führen. Diese Pflichten (und ggf. die Haftung) betreffen jedoch den Anbieter oder Nutzer der KI und nicht die generative KI selbst als deren Werkzeug - ein Ansatz, der auch so in der noch nicht verabschiedeten KI-VO angelegt ist. Hier könnten zB Filter bei der Darstellung der Antworten der generativen KI zur Anwendung kommen.

 

KI-VO enthält weitere Hürden

Für generative KI wird es in der neuen KI-VO erhebliche Hürden geben: Am 12.5.2023 nahmen zwei wichtige EU-Ausschüsse einen Berichtsentwurf mit Änderungen zur KI-VO an. Ein Beispiel: Nach Art. 28b Abs. 2 (a) des Kompromisstexts muss jeder Anbieter eines Foundation Models in Zukunft „durch geeignete Planung, Prüfung und Analyse nachweisen, dass die nach vernünftigem Ermessen vorhersehbaren Risiken für die Gesundheit, die Sicherheit, die Grundrechte, die Umwelt und die Demokratie und Rechtsstaatlichkeit vor und während der Entwicklung mit geeigneten Methoden ermittelt, verringert und gemindert werden ...“. Wie so ein Nachweis praktisch aussehen soll, ist unklar. Die Compliance dürfte schwierig werden. Ein Missbrauch der Vorschrift zu politischen Zwecken ist ein ernstzunehmendes Risiko auch und gerade für ausländische Investoren. Die Umsetzung des Art. 28b Abs. 2 des Kompromisstexts wird auch praktisch schwierig: Foundation Models sind aufgabenunabhängig (task agnostic). Damit ist kaum voraussehbar, welche Anwendungen zu den genannten Risiken führen. (vgl. Beck Blog v. 12.5.23). Es ist auch noch nicht sicher, welche KI-Anwendungen „hoch-risikoreich“ sind oder gleich ganz verboten werden. Der Entwurf beinhaltet zB ein Verbot der vorausschauenden Polizeiarbeit - „predictive policing“, dh KI-Systeme, die das Auftreten von Straftaten auf der Grundlage von Personenprofilen vorhersagen. Die aktuelle Verbotsliste umfasst auch KI-basierte biometrische Systeme, die Menschen nach sensiblen Merkmalen kategorisieren und bestimmte KI-basierte Emotionserkennungssysteme. Die Listen dürften in den weiteren Verhandlungen eher noch wachsen. Weiter offen ist, um auch diesen Punkt abschließend zu erwähnen, wann die neue KI-VO umgesetzt sein muss und wie sie verwaltet wird. Diese Unsicherheiten machen es schwer, den Einsatz der KI in Europa vorausschauend zu planen.

 

Kein EU-Mitgliedstaat sollte vorpreschen

Marit Hansen (Landesbeauftragte für Datenschutz in Schleswig-Holstein) und andere haben in einem lesenswerten FAZ-Artikel v. 24.4.2023 überzeugend dargelegt, warum die europäischen Regulierungsbehörden nationale Lösungen für die generative KI vermeiden sollten. Vorab seien noch zahlreiche Fragen zu klären. ZB sei beim „Scraping“ - wenn Daten aus öffentlich zugänglichen Quellen genutzt werden - noch offen, „wie weit die Erlaubnisnorm aus der DS-GVO trägt.“ Auch zum „Unlearning“-Verfahren werde fleißig „geforscht, um unrechtmäßig eingeflossene Datensätze zu neutralisieren.“ Das Fazit der Autoren: „Zunächst sollten wir uns einen realistischen, weder schöngefärbten noch dramatisierenden Überblick über die Chancen, die Risiken und mögliche Gegenmaßnahmen verschaffen.“ Dem ist zuzustimmen. Insellösungen für einzelne EU-Mitgliedstaaten werden der generativen KI nicht gerecht, zumal die Vollstreckung von Maßnahmen der Behörden an den Landesgrenzen endet. Kein Land will bei der rasanten Entwicklung der generativen KI abgehängt werden. Die Autoren des FAZ-Artikels plädieren für ein vernünftiges, planvolles Vorgehen, das schon kürzlich zur Einsetzung einer KI-Arbeitsgruppe beim EDSB geführt hat. Weiter: „Die Expertenkommission müsste sich ferner mit der Produktverantwortung der Anbieter und der professionellen Anwender oder der privaten Nutzenden der Software ... befassen. Dh, bestehende Haftungsprinzipien und -regeln wären weiterzuentwickeln.“ Das Dilemma: Einerseits bringt der Einsatz von KI neue rechtliche Risiken für ein Unternehmen in der EU. Man weiß noch nicht, wie sie sich entwickelt. Passen die vorhandenen rechtlichen Werkzeuge? Andererseits verliert die EU den Anschluss, wenn sie die neuen Möglichkeiten nicht nutzt. Die Presse berichtet als Ausweg von einer möglichen Kooperation der EU-Kommission mit US- Unternehmen zur Erarbeitung von freiwilligen KI-Mindeststandards. Wo diese Diskussion hinführt, wird man beobachten müssen. Der Paukenschlag aus Italien mit dem zeitlich begrenzten, mittlerweile wieder aufgehobenen Bann von ChatGPT sollte deshalb ein Einzelfall bleiben.

Anzeigen

MMR kostenlos testen

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü