DAV lehnt gesamtschuldnerisches Haftungskonzept bei künstlicher Intelligenz ab

Im Rahmen einer Konsultation der EU-Kommission zur Anpassung der Haftungsregeln im Bereich der künstlichen Intelligenz (KI) hat der Deutsche Anwaltverein (DAV) in einer Stellungnahme gefordert, dass KI nicht zum "Einfallstor" für US-amerikanisches Haftungsrecht und Sammelklagenstandards werden dürfe. Er spricht sich unter anderem gegen einen gesamtschuldnerischen Haftungsansatz und für einen behutsamen Umgang mit Änderungen bei der Beweislastverteilung aus.

DAV gegen gesamtschuldnerische Haftung aller Akteure

Die Einbettung von KI in technologische Ökosysteme, riesige Datenmengen und selbstlernende Algorithmen machten die Identifizierung des verantwortlichen Rechtsträgers (Entwickler, Hersteller, Lieferant, Händler, App-Entwickler, Datenlieferant) deutlich schwieriger, wenn nicht gar unmöglich. Das Gesetz so zu ändern, dass jeder von ihnen gesamtschuldnerisch für einen Schaden hafte, sei jedoch nicht die richtige Antwort, so der DAV. Der Gesetzgeber würde das Konzept akzeptieren, dass nicht verantwortliche Akteure in vollem Umfang haften, obwohl sie weder einen Verstoß begangen noch zu dem Ereignis beigetragen haben. Die Haftung des nicht Verantwortlichen sei im deutschen Haftungsrecht bislang unbekannt. Außerdem könnte sich ein Kläger immer europäische Schuldner aussuchen, um eine Vollstreckung etwa in China zu vermeiden. Und alle Schuldner würden im Rechtsstreit mit Streitverkündung reagieren, sodass die zivilgerichtlichen Verfahren sehr viel komplexer würden. Der derzeitige Ansatz, nur den Hersteller haftbar zu machen und einen selektiven Rückgriff zuzulassen, sei im Vergleich zu einer gesamtschuldnerischen Haftung aller Beteiligten ein raffinierterer Ansatz.

Grundsatz des eigenverantwortlichen Verbrauchers weitestmöglich erhalten

Die Vernetzung sowie die Verwendung von Algorithmen und die Tatsache, dass die menschliche Kontrolle auf ein Minimum reduziert sei, bergen ein neues Risikopotenzial. Eine allgemeine Zunahme an Komplexität werde von Phänomenen wie Intransparenz, Multikausalität und Autonomie begleitet. Wenn die Definition eines Produktfehlers "dynamisiert" werde, so dass jedes Update, jede Änderung oder jede neue Anwendung ein Produkt fehlerhaft machen könne, gewinne der Haftungsausschluss des im Hinblick auf den Stand der Wissenschaft und Technik unerkennbaren Fehlers („state of the art defence“) an Bedeutung und sollte nicht vollständig abgeschafft werden, zumindest was KI-Anwendungen mit geringem Risiko betreffe. Ein bloßer Verdacht eines Fehlers sollte keine Haftung begründen. Im Hinblick auf die berechtigten Sicherheitserwartungen des Nutzers sollte vermieden werden, die Erwartungshaltung zu bestärken, dass KI aufgrund eigenständigen Lernens (self-learning) absolut perfekt sei oder sein werde. Der deutsche Rechtsgrundsatz des eigenverantwortlichen Verbrauchers sollte so weit wie möglich erhalten bleiben, so der DAV.

Beweislastverteilung nur behutsam ändern

Im Bereich der künstlichen Intelligenz ließen sich Tatsachen nicht ohne weiteres nachträglich reproduzieren. Die Erleichterung oder Verschiebung der Beweislast, die Einführung neuer tatsächlicher oder rechtlicher Vermutungen, die Ausweitung der Gefährdungshaftung sowie zusätzliche Ansprüche auf Auskunftserteilung und Vorlage von Dokumenten hätten jedoch das Potential, den geltenden Grundsatz der "Waffengleichheit" in Haftungsstreitigkeiten ernsthaft zu beeinträchtigen. Änderungen der Beweislast sollten nur so weit gehen, dass die Waffengleichheit in Fällen wiederhergestellt werde, in denen diese Last für das Opfer eines durch KI verursachten Schadens aufgrund der technischen Besonderheiten von KI übermäßig hoch sei. Werde eine Gefährdungshaftung von Entwicklern und Betreibern von Hochrisiko-Anwendungen eingeführt, reiche es aus, wenn der Geschädigte nachweise, dass der Schaden beim Betrieb der KI eingetreten sei, wie dies bei der Kraftfahrzeughaftung der Fall sei. Außerhalb von Hochrisiko-Anwendungen sollten dem Geschädigten gewisse Beweislasterleichterungen zugutekommen, was jedoch nicht zur Abschaffung des Grundsatzes führen dürfe, wonach der Geschädigte die Anspruchsvoraussetzungen (Schaden, Mangel und Kausalzusammenhang) nachweisen müsse. Ziel müsse es sein, das richtige Maß zu finden. Eine Beweislastverteilung allein nach Schwierigkeits- und Kostengesichtspunkten sei im deutschen Recht unbekannt.

Zurückhaltung bei Einführung neuer Schadenspositionen gefordert

Auch im Bereich der KI müssten missbräuchliche Anwendung und Missachtung von Anweisungen als Haftungsausschlüsse Geltung beanspruchen können. Darüber hinaus müsse ein Mitverschulden eine Rolle spielen, zum Beispiel wenn Software-Updates nicht ausgeführt oder Sicherheitsfunktionen umgangen werden. Die zunehmenden Instruktions- und Produktüberwachungspflichten im Bereich der KI würden zu mehr Tests, Benchmarking, Risikobewertung und Dokumentation im Entwicklungs- und Herstellungsprozess führen. Dies sei zwar unter vielen Aspekten sinnvoll, aber eine Überregulierung verhindere Innovation. Der Gesetzgeber sollte zudem bei der Einführung neuer Schadenspositionen, die derzeit im Bereich der KI diskutiert würden, zurückhaltend sein. Dies gelte für den Verlust kognitiver Fähigkeiten, Depressionen, Schlaflosigkeit und psychischer Probleme aufgrund von Virtual-Reality-Anwendungen. Auch hier sei das Konzept des eigenverantwortlichen Verbrauchers ein legitimes Merkmal des deutschen Haftungsrechts.

Redaktion beck-aktuell, 11. März 2022.