Von
Prof. Dr. Herbert Zech | Feb 16, 2024
In den vergangenen zehn Jahren hat Künstliche Intelligenz (KI) – die Nachahmung menschlicher Intelligenz durch Technologie – erhebliche Fortschritte gemacht. Angetrieben durch Fortschritte in algorithmischem Design, Rechenleistung und Umfang von Trainingsdaten hat das maschinelle Lernen die Informationstechnologie grundlegend verändert. Sie kann nun menschliche Intelligenz in einem Maße ergänzen und ersetzen, wie es noch vor einem Jahrzehnt als unmöglich galt. Im Jahr 2018 bezeichnete die Europäische Kommission KI als eine transformative Technologie, die das Potenzial hat, neue ethische und rechtliche Fragen aufzuwerfen. Mit dem verbreiteten Aufkommen generativer KI (à la ChatGPT), die massenhaft Inhalte erstellen kann, die zuvor nur von Menschen geschaffen werden konnten, bewegt dieses Potenzial nun die gesamte Wirtschaft und Gesellschaft.
Vor diesem Hintergrund kann nur begrüßt werden, dass die Europäische Kommission schon vor zwei Jahren mit dem AI Act einen Vorschlag zur Regulierung von (zunächst noch sehr breit verstandener) KI gemacht hat. Wenn nun generative KI bzw. Foundation Models grundlegenden Prinzipien des AI Act, wie etwa der Transparenzpflicht, zuwiderlaufen, so verdeutlicht dies doch gerade das Gefahrenpotenzial generativer KI und bestätigt damit die Konzeption des AI Act. Auch die zweite Säule der Regulierung von KI-Risiken, das Haftungsrecht, dürfte sich schwertun, bei Fragen der Produkthaftung Sorgfaltspflichtverstöße alleine wegen der Multifunktionalität bzw. offenen Zweckbestimmung generativer KI auszuschließen. Stattdessen den Nutzern oder Dritten mögliche Schäden aufzubürden, überzeugt nicht. Die geplante Erweiterung der Produkthaftungs-Richtlinie auf Software und KI ist daher ein wichtiger Schritt, auch wenn die Fehlerhaftigkeit von KI mit offener Zweckbestimmung schwerer zu bestimmen sein wird.
Zweifellos bedarf generative KI besonderer regulatorischer Aufmerksamkeit. Es handelt sich um eine beeindruckende Technologie, deren Nutzen – und Risiken! – noch gar nicht vollständig abgeschätzt werden können. Neben den evidenten urheberrechtlichen Fragestellungen ist insbesondere das Missbrauchspotenzial generativer KI, die ja gerade menschliche Äußerungen imitieren soll, enorm. Ähnlich wie bei der Plattform-Regulierung steht das Recht hier vor dem Problem, dass es nicht nur um „harte“ Risiken für Eigentum oder Gesundheit geht, sondern in weit höherem Maße um „weichere“ Risiken, die den Persönlichkeitsschutz, Diskriminierungsfragen oder gesellschaftliche Interessen wie eine funktionierende Demokratie betreffen – und die zudem nicht unmittelbar von den Anbietern, sondern von den Anwendern verwirklicht werden. Auch wenn man sich nun im Trilog auch auf die Regulierung von generativer KI geeinigt hat, wird das Ringen um die richtige Regulierung solcher KI also noch lange nicht abgeschlossen sein. Es ist gut, dass der AI Act nun kommt. Regulieren Sie nur, wenn und soweit es nötig ist! Für KI dürfte das nicht mehr ernsthaft anzuzweifeln sein.