Geplante Vorschriften definieren verbotene KI-Praktiken
Die Abgeordneten der zuständigen Ausschüsse wollen sicherstellen, dass KI-Systeme von Menschen überwacht werden, sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Außerdem wollen sie eine einheitliche und technologieneutrale KI-Definition, so dass sie für die KI-Systeme von heute und morgen gelten kann. Die geplanten Vorschriften folgen einem risikobasierten Ansatz und legen Verpflichtungen für Anbieter sowie Nutzerinnen und Nutzer fest, die sich nach dem Grad des Risikos richten, das die KI erzeugen kann. KI-Systeme, die ein inakzeptables Risiko für die Sicherheit von Menschen darstellen, wären demnach strengstens verboten. Dazu gehören Systeme, die unterschwellige oder absichtlich manipulative Techniken einsetzen, die Schwachstellen von Menschen ausnutzen oder für sogenanntes Social Scoring verwendet werden.
EU-Abgeordnete erweitern Liste der Verbote und Hochrisikobereiche
Die Abgeordneten änderten diese Liste erheblich, um Verbote für aufdringliche und diskriminierende Anwendungen von KI-Systemen aufzunehmen, wie etwa biometrische Erkennungssysteme. Auch sprachen sich die Abgeordneten gegen biometrische Kategorisierungssysteme, die sensible Merkmale verwenden wie Geschlecht oder ethnische Zugehörigkeit. Verboten werden sollen zudem prädiktive Polizeisysteme sowie Systeme zur Erkennung von Emotionen bei der Strafverfolgung, beim Grenzschutz, am Arbeitsplatz und in Bildungseinrichtungen. Auch das wahllose Auslesen biometrischer Daten aus sozialen Medien oder Videoüberwachungsaufnahmen zur Erstellung von Gesichtserkennungsdatenbanken soll unzulässig sein. Die Abgeordneten haben zudem die Klassifizierung der Hochrisikobereiche um die Bereiche Gesundheit, Sicherheit, Grundrechte und Umwelt erweitert. Sie fügten auch KI-Systeme zur Beeinflussung von Wählerinnen und Wählern in politischen Kampagnen und in Empfehlungssystemen, die von Social-Media-Plattformen mit mehr als 45 Millionen Nutzerinnen und Nutzern verwendet werden, der Liste der Hochrisikobereiche hinzu.
Verpflichtungen für Anbieter von Foundation-Modellen
Weiter haben die Abgeordneten Verpflichtungen für Anbieter von sogenannten Foundation-Modellen – ein neuer und sich rasch entwickelnder Bereich der KI – aufgenommen, die einen soliden Schutz der Grundrechte, der Gesundheit und Sicherheit sowie der Umwelt, der Demokratie und der Rechtsstaatlichkeit gewährleisten müssten. Sie müssten Risiken bewerten und abmildern, Auslegungs-, Informations- und Umweltanforderungen einhalten und sich in der EU-Datenbank registrieren lassen. Generative Foundation-Modelle wie GPT müssten zusätzliche Transparenzanforderungen erfüllen und beispielsweise offenlegen, dass die Inhalte durch KI generiert wurden. Auch müssten die Modelle so konzipiert sein, dass keine illegalen Inhalte generiert und keine Zusammenfassungen urheberrechtlich geschützter Daten veröffentlichen werden.
Förderung von Innovation und Schutz der Rechte der Bürger
Um KI-Innovation zu fördern, haben die Abgeordneten Ausnahmen für Forschungstätigkeiten und KI-Komponenten unter Open-Source-Lizenzen in die Vorschriften aufgenommen. Das neue Gesetz fördert Reallabore oder kontrollierte Umgebungen, die von öffentlichen Behörden eingerichtet werden, um KI vor ihrem Einsatz zu testen. Die Abgeordneten wollen das Recht der Bürgerinnen und Bürger stärken, Beschwerden über KI-Systeme einzureichen und Erklärungen zu Entscheidungen zu erhalten, die auf risikoreichen KI-Systemen basieren und ihre Rechte erheblich beeinträchtigen. Die Abgeordneten haben auch die Rolle des EU-Amtes für künstliche Intelligenz neu gefasst, das mit der Überwachung der Umsetzung des KI-Regelwerks betraut werden soll. Bevor die Verhandlungen mit dem Rat über die endgültige Form des Gesetzes beginnen können, muss der Entwurf des Verhandlungsmandats vom gesamten Parlament gebilligt werden. Die Abstimmung wird für Mitte Juni erwartet.