NJW-Editorial
Kontroverse KI-Verordnung
NJW-Editorial
Foto_Editorial_NJW_21_2021_Martin_Ebers_WEB
Foto_Editorial_NJW_21_2021_Martin_Ebers_WEB

Der am 21.4. von der Europäischen Kommission veröffentlichte Vorschlag für eine KI-Verordnung (VO-E) hat es in sich: KI-Systeme mit „unvertretbarem“ Risiko sollen verboten werden, für „hochriskante“ Systeme sind strenge Vorgaben vorgesehen, die vor Inverkehrgabe zu beachten sind. Zugleich wird der Anwendungsbereich – der DS-GVO vergleichbar – denkbar weit gezogen: Erfasst werden sowohl öffentliche wie private Akteure innerhalb und außerhalb der EU, sofern das KI-System in der Union in den Verkehr gebracht wird oder Menschen in der EU von seiner Verwendung betroffen sind.

20. Mai 2021

Der Entwurf liefert reichlich Zündstoff: Für die einen ist der Vorschlag marktzutrittshemmend und innovationsfeindlich, anderen geht er nicht weit genug. Bemängelt wird, dass das Verbot biometrischer Echtzeiterkennung in öffentlichen Räumen (vgl. Art. 5 I lit. d VO-E) nur staatliches, nicht aber privates Handeln erfasst, allein für die Strafverfolgung gilt und zudem durch zahlreiche Ausnahmen durchlöchert wird. Moniert wird auch, dass der Umweltschutz ausgeblendet wird. Zu Recht kritisiert wird ferner, dass der Entwurf keinerlei Betroffenenrechte vorsieht. Hiervon abgesehen stellen sich grundlegende Fragen: Hat die EU die behauptete Binnenmarktkompetenz (Art. 114 AEUV), obwohl konkrete Binnenmarkthemmnisse mangels nationaler KI-Gesetzgebung derzeit (noch) nicht nachweisbar sind? Ist es gerechtfertigt, dass der Vorschlag nicht nur lernende Systeme erfasst, sondern auch logik- und wissensbasierte Ansätze, einschließlich Expertensysteme? Wie lassen sich jene von „normaler“ Software abgrenzen? Verbietet Art. 5 I lit. a VO-E personalisierte Werbung und andere Formen der Verhaltensbeeinflussung, die heute überall anzutreffen sind? Wie lässt sich die erlaubte von der unerlaubten Einflussnahme unterscheiden? Warum regelt der Entwurf nicht, welche Maßstäbe für die Erklärbarkeit von KI-Systemen gelten und wann eine algorithmische Diskriminierung vorliegt? Lassen sich diese Anforderungen im Wege der (privaten) Standardisierung konkretisieren (vgl. Art. 40 ff. VO-E), ohne dass ein „Whitewashing“ droht?

Dass sich Brüssel getraut hat, „rote Linien“ zu formulieren, ist ein Schritt in die richtige Richtung, nur müssten diese viel klarer gefasst werden. Ohne innovationsermöglichende Rechtsnormen steht außerdem zu befürchten, dass Europa im globalen KI-Wettlauf weiter hinter die USA und China zurückfällt. Die EU sollte daher nicht nur eine Blacklist, sondern auch eine Whitelist ausdrücklich erlaubter, förderungswürdiger KI-Systeme in Betracht ziehen. Daneben bedarf es der Novellierung bestehender EU-Rechtsakte, die in ihrer gegenwärtigen Fassung – wie bspw. die DS-GVO – das Innovationspotenzial neuer Technologien nicht ausreichend berücksichtigen. Verbote und zwingende Vorgaben reichen für sich genommen nicht aus. Vielmehr muss bei Schaffung eines KI-Rechtsrahmens die Ermöglichungsfunktion des Rechts immer mitbedacht werden. •

Prof. Dr. Martin Ebers ist Professor für IT-Recht an der Universität Tartu (Estland) und Präsident der Robotics & AI Law Society (RAILS).