CHB_RSW_Logo_mit_Welle_trans
jaheader_neu

Die AILD füllt eine Lücke

Von Prof. Dr. Philipp Hacker,
Mit zunehmender Verbreitung von KI stellt sich die Frage, wer für Schäden haftet, die sie verursacht. Ein Richtlinienvorschlag, mit dem sich derzeit der Rechtsausschuss des EU-Parlaments befasst, sieht vor, die außervertraglichen zivilrechtlichen Haftungsregeln an KI anzupassen. Prof. Dr. Philipp Hacker hat hierzu für den Wissenschaftlichen Dienst des EU-Parlaments eine ergänzende Folgenabschätzung vorgenommen. Wir haben ihn dazu befragt.

RDi: Bedarf es einer Richtlinie für die Anpassung der außervertraglichen zivilrechtlichen Haftungsregeln an KI (AILD)? Welche Bedeutung hat sie?

Hacker: Ja, die AILD ist aus meiner Sicht nötig. Die vorgeschlagene Richtlinie soll sicherstellen, dass Personen, die durch KI-Systeme geschädigt werden, effektiven rechtlichen Schutz und Zugang zu Entschädigung erhalten. Dies ist besonders relevant, da KI-Systeme oft komplexe, intransparente und zum Teil stark autonome Entscheidungen treffen, die durch herkömmliche Haftungsmechanismen und insbesondere die damit einhergehenden Durchsetzungsprozeduren nicht immer angemessen erfasst werden können. Die Bedeutung der Richtlinie liegt daher in der Schaffung eines prozeduralen Rahmens, der den spezifischen Risiken und Herausforderungen von KI gerecht wird und gleichzeitig – das wäre jedenfalls die Hoffnung – so minimalinvasiv ist, dass Innovation und KI dennoch in der EU mehr als bislang gedeihen können.

RDi: Wie passt die vorgeschlagene Richtlinie in den bisherigen Rechtsrahmen? Welche Lücke füllt sie?

Hacker: Die AILD erfasst jene Bereiche, die von der überarbeiteten Produkthaftungsrichtlinie (PLD) nicht abgedeckt werden, aber nicht minder relevant sind. Die PLD ist zu eng, da ihr Schutzbereich bekanntlich auf wenige Rechtsgüter beschränkt bleibt (Leib, Leben, Gesundheit, Verbrauchereigentum, nun auch Datenverlust). Damit bleiben die zentralen Haftungsprobleme im Zusammenhang mit generativer KI aber gerade außen vor: Diskriminierung, die Verletzung von Persönlichkeitsrechten, aber auch IP. Die AILD füllt diese Lücke. Sie ergänzt also den bestehenden Rechtsrahmen, vor allem die PLD und die KI-Verordnung, indem sie spezifische prozedurale Regeln (Beweiserleichterungen und Offenlegungspflichten) in den genannten, bislang nicht erfassten Bereichen einführt. Aus der Forschung und Praxis wissen wir zudem, dass zum Beispiel im Anti-Diskriminierungsrecht ein erhebliches Durchsetzungsdefizit besteht, das durch KI aller Wahrscheinlichkeit nach noch vergrößert wird. Insofern schließen die Regeln der AILD auch eine rechtstatsächliche Lücke.

RDi: Sie haben in Ihrer Studie wesentliche Mängel in der Folgenabschätzung der EU-Kommission ausgemacht. Welche sind das?

Hacker: Die Studie identifiziert zwei zentrale Mängel. Erstens hat die Kommission nicht alle Regelungsoptionen ausreichend untersucht. Insbesondere fehlt eine tiefgehende Analyse der Integration eines strikten Haftungssystems mit Haftungshöchstgrenzen sowie die Möglichkeit einer vollständigen Umkehr der Beweislast. Zweitens ist die Kosten-Nutzen-Analyse unvollständig. Während einige Aspekte gründlich untersucht werden, kommt die Diskussion über Potenziale und Nachteile eines verschuldensunabhängigen Haftungsregimes zu kurz.

RDi: Was schlagen Sie stattdessen vor?

Hacker: Vor allem empfiehlt die Studie, die AILD von einer KI-spezifischen Richtlinie zu einer umfassenderen Software-Haftungsverordnung auszubauen. Eine Verordnung soll Marktfragmentierung verhindern und einheitliche Standards gewährleisten. Weiterhin schlage ich vor, eine neue Kategorie von „High-Impact-KI-Systemen“ einzuführen, die auch KI-Modelle mit allgemeinem Verwendungszweck wie ChatGPT einschließt, aber zum Beispiel auch autonome Fahrzeuge und andere Produkte, die nach dem „Old Legislative Framework“ (OLF) der Produktsicherheit reguliert und daher aus der KI-Verordnung ausgeschlossen sind. Denn hinsichtlich der Haftung besteht kein sachlicher Grund, Basismodelle und OLF-Anwendungen anders zu behandeln als jene, die nach der KI-Verordnung Hochrisikoapplikationen darstellen. Vor dem Hintergrund des Gleichheitssatzes erscheint mir das fast zwingend. Zudem müssen die Argumente für und wider eine strikte Haftung im AILD-Gesetzgebungsprozess offen und transparent diskutiert werden. Eine solche Haftung für KI könnte etwa Entschädigungsprozesse vereinfachen und sicherstellen, dass diejenigen, die wirtschaftlich am meisten von KI profitieren, auch die Kosten potenzieller Schäden tragen. Andererseits könnte sie eine abschreckende Wirkung auf KI-Investitionen und -Einsatz in der EU haben. Insgesamt würden Schritte in diese Richtung hoffentlich dazu beitragen, einen kohärenten und umfassenden Rechtsrahmen für KI-Haftung in der EU zu schaffen, der sowohl Innovation fördert als auch angemessenen Schutz bietet.

Leseproben

RDi_Cover

RDi_2022_176-Aufsatz

BECK Stellenmarkt

Teilen:

Menü