Prof. Dr. Antonio Krüger/Reinhard Karger
KIR 2025, 85 Die KI-Verordnung (KI-VO) reguliert risikobasiert Produkte und Dienstleistungen, die im EU-Binnenmarkt angeboten werden dürfen. Sie soll Verbraucherinnen- und Verbraucherrechte schützen, für Hersteller soll sie Markt- und Investitionssicherheit schaffen. Das sind auch aus der Perspektive der anwendungsinspirierten KI-Forschung vorrangige Ziele.
Die KI-VO hat das Arbeits- und Wirkungsfeld von Juristinnen und Juristen um einen legislativen Kontinent erweitert, der in den kommenden Jahren juristisch erkundet und judikativ kartiert wird. Dabei sollte Berücksichtigung finden, dass eine forschungshemmende Wirkung wichtige KI-Entwicklungen in der EU mittelfristig ausbremsen könnte. Die Inventionsproduktion würde austrocknen und die Innovationspipeline versiegen. Die KI-VO und die zukünftige Rspr. müssen deshalb eine Balance wahren mit der innovationserhaltenden Vermeidung von Überregulierung.
Das Europäische Parlament und die EU-Kommission beweisen mit der KI-VO, dass Politik zwar reaktiv von technologischen Sprunginnovationen getrieben wird, dass aber die EU die legislative Hoheit über den Gestaltungsspielraum behält. Die Zielerreichung ist nicht nur politisch wünschenswert, sondern gesellschaftlich essenziell. Sinn der KI-VO ist die gemeinwohl- und gleichzeitig erkenntnisförderliche Regulierung von KI-Anwendungen: „Um sicherzustellen, dass KI zu sozial und ökologisch vorteilhaften Ergebnissen führt, werden die Mitgliedstaaten ermutigt, Forschung und Entwicklung zu KI-Lösungen, die zu sozial und ökologisch vorteilhaften Ergebnissen beitragen, zu unterstützen und zu fördern…“ (Erwägungsgrund 142 KI-VO).
Die EU verfolgt einen risikobasierten Ansatz, verwirklicht damit Hans Jonas´ Verantwortungsprinzip und setzt dieses mit der Risikoklassendefinition von KI-Anwendungen legislativ um. Im Fokus vieler journalistischer Kommentare sind die durch die KI-VO in der Europäischen Union sehr eingeschränkt zugelassenen Hochrisikoanwendungen – zB anlasslose Gesichtserkennung, die flächendeckende Überwachung des öffentlichen Raums, aber auch die Einführung von staatlichem Nudging durch wohlverhaltenssteuernde Sozialkreditsysteme. Krit. zu betrachten ist aber eben auch, wie und ob die in der Einführung der KI-VO explizit ausgedrückte Innovationsaffinität eingelöst wird: „Diese Verordnung sollte die Innovation fördern, die Freiheit der Wissenschaft achten und Forschungs- und Entwicklungstätigkeiten nicht untergraben“ (Erwägungsgrund 25 KI-VO). Es ist zu fragen, ob die KI-VO dynamisierende Nah- und Fernwirkungen für das Innovationssystem und speziell für die KI-Forschung erzeugt oder behindert. Zahlreiche und textuell ausführlichere Hinweise dazu finden sich in acht Absätzen der Einführung; die Formulierungen in den drei Artikeln, die explizit auf KI-Forschung eingehen, sind vergleichsweise eher knapp.
Die Wirtschaft ist angewiesen auf Innovationen, damit Produkte gleichzeitig leistungsfähiger, die Produktion effizienter und der ökologische Fußabdruck geringer werden. KI-Anwendungen können potenziell zu wesentlichen Fortschritten beitragen. Erwähnt sei die personalisierte Medizin, bei der datengetriebenen KI-Ansätzen, die auf Aggregierung von hochqualitativen Gesundheitsdaten angewiesen sind, eine hohe Erfolgschance zugeschrieben wird.
Innovationen eröffnen Geschäftsmodelle, Produkt- und Anwendungschancen, ermöglichen neue Märkte, schaffen Arbeitsplätze und sichern ein auskömmliches Leben. Innovationen brauchen Forschung und Forschung braucht Freiheit. Forschungsfreiheit bedeutet, dass erkenntnisorientierte Projekte auch Themen und Technologien adressieren können, die bestehende Produktregulierungen überschreiten. Und so sieht es auch die KI-VO: „Daher müssen KI-Systeme und -Modelle, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden, vom Anwendungsbereich der Verordnung ausgenommen werden“ (Erwägungsgrund 25 KI-VO).
Was bedeutet „für den alleinigen Zweck“ (Erwägungsgrund 25 KI-VO) genau? Es heißt, dass KI-Anwendungen nur im Rahmen wissenschaftlicher Forschung und Entwicklung von der KI-VO ausgenommen sind, also zB für Forschungsprojekte entwickelt und in Forschungsprojekten eingesetzt werden können. Die Bestimmungen der KI-VO sollen nicht „vor der Inbetriebnahme oder dem Inverkehrbringen dieser Systeme und Modelle gelten“ (Erwägungsgrund 25 KI-VO). Lösungen können also entwickelt, aber möglicherweise nicht außerhalb des Forschungskontextes eingesetzt werden.
Wie funktioniert der erfolgreiche Transfer von konkreten Forschungsergebnissen in die Wirtschaft? Wie kann eine forschungsintern erfolgreich angewendete KI-Lösung auch außerhalb Wirkung entfalten? Entscheidend wird sein, wie der Zulassungsprozess für KI-Produkte ausgestaltet wird. Wenn bei linearen Investitionen die legislativen Hürden, Projektkosten und Vorlaufzeiten signifikant anheben, könnte in der EU eine akademische Abwanderungsbewegung und ein Schrumpfen der Ausgründungsintensität von KI-Start-ups einsetzen.
Bei Forschung geht es nicht ausschließlich um die grundlagenorientierte Erweiterung des Wissens, sondern auch anwendungsinspiriert um Ergebnistransfer und wirtschaftsorientierte Innovationsprojekte. Transfers können Fertigkeiten oder fertige Implementierungen umfassen, Produktfunktionen oder Anwendungsinnovationen. Wie verändert die KI-VO die Zusammenarbeit in Industrieprojekten? Müssen zu Beginn die Projektziele und Methoden hinsichtlich ihrer KI-VO-Compliance überprüft werden? Anders als bei Entwicklung ist für Forschungsprojekte charakteristisch, dass man zum Projektstart die notwendigen Methoden für einen Lösungspfad nicht umfänglich kennt.
Problematisch ist, dass Technologieregulierung aus Notwendigkeit zukunftsoffen ausgestaltet werden muss. Die Erfindungen von morgen können wir heute noch nicht kennen. Aber wir wissen, dass wir Erkenntnistiefe und Innovationsintensität steigern müssen, damit wir mit den kommenden ökologischen, ökonomischen und politischen Herausforderungen werden umgehen können.
Das heißt zu keinem Zeitpunkt, dass die Forschungsfreiheit schrankenlos ist. Das ist selbstverständlich, sollte aber wohl immer wieder in Erinnerung gerufen werden: „In jedem Fall sollten jegliche Forschungs- und Entwicklungstätigkeiten gemäß anerkannten ethischen und professionellen Grundsätzen für die wissenschaftliche Forschung und unter Wahrung des geltenden Unionsrechts ausgeführt werden“ (Erwägungsgrund 25 KI-VO).
Das Forschungs- und Entwicklungsprivileg garantiert Art. 2 Abs. 6 KI-VO: „Diese Verordnung gilt nicht für KI-Systeme oder KI-Modelle, einschließlich ihrer Ausgabe, die eigens für den alleinigen Zweck der wissenschaftlichen Forschung und Entwicklung entwickelt und in Betrieb genommen werden“. Schränkt es aber in Art. 2 Abs. 8 KI-VO wieder ein: „Diese Verordnung gilt nicht für Forschungs-, Test- und Entwicklungstätigkeiten zu KI-Systemen oder KI-Modellen, bevor diese in Verkehr gebracht oder in Betrieb genommen werden. Solche Tätigkeiten werden im Einklang mit dem geltenden Unionsrecht durchgeführt. Tests unter Realbedingungen fallen nicht unter diesen Ausschluss“. Das Letztere bedeutet, dass die Wissenschaft Forschungsprototypen bauen, aber diese Systeme nicht unter Realbedingungen testen darf, mit der Folge, dass möglicherweise keine „Freilandversuche“ durchgeführt werden können. In diesem Punkt erinnert die KI-VO an die Diskussionen über die Gen-Technik und es wird diskutiert werden müssen, ob oder bis zu welchem Grad diese Analogie hilfreich ist. Gerade bei der Erstellung großer KI-Modelle mit hohem Innovationspotenzial sind die Grenzen zwischen Forschung und Anwendung fließend. Das nächste revolutionäre medizinische KI-Modell wird nicht mit rein simulierten Trainingsdaten aus dem Labor entstehen, sondern in interdisziplinärer Zusammenarbeit zwischen Forschern, Gesundheitsexperten und der öffentlichen Hand, die entsprechende Daten zur Verfügung stellt. Es besteht die Gefahr, dass eine zu strenge Auslegung der Regulierung vielversprechende Ansätze schon im Keim ersticken wird. Es ist daher sinnvoll und wünschenswert, den Begriff des Reallabors, dh den Test und die Entwicklung von KI-Modellen in geschützten Umgebungen möglichst weit auszulegen.
Die KI-VO enthält Arbeitsaufträge, zB „Der Begriff „KI-Modelle mit allgemeinem Verwendungszweck“ sollte klar bestimmt und vom Begriff der KI-Systeme abgegrenzt werden, um Rechtssicherheit zu schaffen“ (Erwägungsgrund 97 KI-VO). Aber auch Öffnungsperspektiven durch die in Aussicht gestellte Absenkung von Komplikationen beim unionsinternen Datenaustausch: „Die Kommission kann Initiativen, auch sektoraler Art, ergreifen, um den Abbau technischer Hindernisse zu erleichtern, die den grenzüberschreitenden Datenaustausch im Zusammenhang mit der KI-Entwicklung behindern, unter anderem in Bezug auf die Infrastruktur für den Datenzugang und die semantische und technische Interoperabilität verschiedener Arten von Daten“ (Erwägungsgrund 165 KI-VO). Das bietet sich im Kontext von Gesundheitsdaten an, bei denen es nicht nur um die Datenmenge, sondern auch um die Datenqualität geht, für die wiederum die Annotation von sensiblen Daten eine Voraussetzung ist. Es ist also wünschenswert, wenn standardisierte Annotationswerkzeuge sehr rasch anerkannt und zugelassen werden, damit die Forschungspipeline nicht bereits in der initialen Phase qualitativ unter ihren Möglichkeiten bleibt.
Die Entwicklung der KI war in den vergangenen Jahren rasant und europäische Wissenschaftlerinnen und Wissenschaftler haben maßgeblich dazu beigetragen. Damit dies so bleibt, ist es daher notwendig, die konkrete Regulierung gesellschaftlich nachvollziehbar und den Dialog über die begleitenden Evaluierungen und Zertifizierungen technologieoffen konstruktiv zu gestalten. Die europäische KI-Forschung sollte durch die KI-VO nicht ausgebremst, sondern motiviert werden. Dazu müssen jetzt nicht nur legislative Planquadrate skizziert, sondern auch Orientierung im Verlauf geschaffen werden. Wichtig sind ein Kompass und ein Prozess, die gewährleisten, dass neue Konzepte und mögliche Sprunginnovationen befördert und nicht ausgebremst werden.
Prof. Dr. Antonio Krüger
ist CEO und wissenschaftlicher Direktor des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) sowie wissenschaftlicher Direktor des Forschungsbereichs „Kognitive Assistenzsysteme“ am DFKI.
Reinhard Karger
ist theoretischer Linguist, seit 1993 Mitarbeiter, seit 2011 Unternehmenssprecher und seit 2022 Mitglied des Aufsichtsrats des Deutschen Forschungszentrums fürs Künstliche Intelligenz (DFKI).