Prof. Dr. Christian Heinze
KIR 2024, 149 Die Wochen seit Redaktionsschluss der letzten Ausgabe der KIR waren ereignisreich: Die Wahl von Donald Trump und die Mehrheit der Republikaner in beiden Häusern des Kongresses in den USA, das Ende der Ampel in Deutschland und die LAION-Entscheidung in Hamburg werden weitreichende Folgen für das KI-Recht haben. Mit der Wahl von Trump wird sich der regulatorische Graben zwischen Europa und den USA bei der Regulierung der Künstlichen Intelligenz (KI) weiter vertiefen. Es wird erwartet, dass die Trump Administration die AI Executive Order 14110 der Biden Administration v. 30.10.2023 aufheben wird und die Federal Trade Commission (FTC) zu einer zurückhaltenderen Haltung im Hinblick auf die Durchsetzung der Voluntary AI Commitments anhalten wird.
Auch die Durchsetzung des Kartellrechts im KI-Bereich, etwa bei Akquisitionen durch marktstarke KI-Unternehmen oder bei der Handhabung der sog. „exclusionary practices“ nach dem Sherman Act, könnte zurückgenommen werden. Wenn die neue Regierung über den Kongress auch einzelstaatliche Regulierungsmaßnahmen durch ein bundesgesetzliches Verbot verdrängen sollte, könnte dies das vorläufige Ende der KI-Regulierung in den USA bedeuten. Der Einfluss von Elon Musk auf die neue Regierung könnte zudem zur Deregulierung des autonomen Fahrens führen, wobei auf diesem Gebiet die Kompetenzabgrenzung zwischen Bund und Einzelstaaten unsicher ist.
Wie sollten Europa und Deutschland reagieren? Sicherlich nicht angebracht ist die Kapitulation, also die Aufgabe der gerade erst erlassenen neuen Digitalrechtsakte einschließlich der KI-Verordnung (KI-VO). Entscheidend ist aber nun zunächst eine klare Ausrichtung auf die Rechtssicherheit: Es geht nicht an, bei den zahlreichen Auslegungsfragen auf die Gerichte und letztlich den EuGH zu warten und die KI-Entwickler und -Anwender in Europa lange Jahre im Ungewissen zu lassen. Gerade mit Blick auf die drastischen Sanktionen müssen die Rechtsunterworfenen wissen, was erlaubt ist und was nicht. Die KI-VO sieht die dazu erforderlichen Instrumentarien teilweise bereits vor, etwa die Leitlinien der Kommission nach Art. 96 KI-VO und den Erlass delegierter Rechtsakte nach Art. 97 KI-VO. Von ihnen sollte zeitnah und bürokratiearm Gebrauch gemacht werden. Zudem sollte der europäische Gesetzgeber dringend das Verhältnis der neuen Digitalrechtsakte untereinander abgrenzen und sich nicht mehr hinter nichtssagenden „berührt nicht“-Klauseln (Steinrötter GRUR 2023, 216) verschanzen. Und schließlich sollte die Kommission die neue Digitalgesetzgebung auf ihre Wirkungen für Wettbewerbsfähigkeit und Innovation in Europa überprüfen: Die viel beschworene digitale Souveränität Europas wird es nicht geben, wenn die EU zur technologischen Kolonie anderer Staaten wird.
Allerdings sind auch die nationalen Umsetzungsgesetzgeber gefordert. Hilfreich könnte etwa die Möglichkeit einer behördlichen Auslegung der KI-VO und des Umsetzungsgesetzes im Allgemeinen und im Einzelfall sein, um eine schnelle Einschätzung über die Zulässigkeit eines konkreten KI-Systems und damit Rechtssicherheit zu erhalten. Diese Einschätzung sollte auf Antrag erfolgen, über den von der Aufsichtsbehörde zwingend in gesetzlich definierter Frist zu entscheiden ist, verbunden mit einer Genehmigungsfiktion nach Fristablauf. Soweit die Behörde eine Vereinbarkeit mit der KI-VO feststellt, sollte dies von Bußgeldern befreien oder zumindest bußgeldbegrenzend wirken. Der Blick über die Grenze ist hier lehrreich: Im Vorschlag für ein polnisches Umsetzungsgesetz zur KI-VO findet sich das – steuerrechtlich inspirierte (vgl. § 89 Abs. 2 AO, Art. 33 Zollkodex) – Instrument allgemeiner und individueller Interpretationen für Unternehmen (Art. 14, 15 Entwurf für ein polnisches Umsetzungsgesetz zur KI-VO), um die Stabilität und Vorhersehbarkeit der Geschäftstätigkeit von Unternehmen zu gewährleisten, die KI-Technologie einsetzen (s. unter: https://legislacja.rcl.gov.pl/projekt/12390551/katalog/1308789 5#13087895, dort „Projekt_ustawa o SSI 15102024.docx“).
So kann ein Betroffener nach Art. 14 Abs. 1 des polnischen Entwurfs bei der Aufsichtsbehörde eine Auslegung der KI-VO und des polnischen Umsetzungsgesetzes beantragen, etwa zur Einstufung eines maschinellen Systems als KI-System oder zur Bestimmung des Risikos eines KI-Systems. Man mag einwenden, dass dies in der KI-VO nicht ausdrücklich vorgesehen ist. Es ist aber auch nicht verboten und lässt sich durch die mitgliedstaatliche Verfahrensautonomie rechtfertigen, so wie verbindliche Auskünfte im Steuerrecht auch heute bereits im unionsrechtlich geprägten Umsatzsteuerrecht möglich sind. Ebenso wenig sind bußgeldrechtliche Erleichterungen nach behördlichen Auskünften unionsrechtswidrig: Selbst wenn der EuGH im Kartellrecht bei der entschuldigenden Wirkung des Rechtsirrtums im Bußgeldverfahren zurückhaltend war, hat er dies nicht ausgeschlossen, wenn die nationale Verwaltung präzise Zusicherungen gegeben hat und für eine negative Entscheidung auch zuständig ist (EuGH NZKart 2013, 332 Rn. 40-42 – Schenker; s. auch EuGH ZD 2024, 203 Rn. 76 – Deutsche Wohnen).
Insofern bietet das Scheitern der Ampel und die damit verbundene Verzögerung des deutschen Umsetzungsgesetzes zur KI-VO eine Chance, von unseren europäischen Nachbarn zu lernen. Was spricht dagegen, die aktuellen Umsetzungsideen der anderen EU-Mitgliedstaaten zu vergleichen und daraus ein „Best of“ für Deutschland zu entwerfen? Was spricht dagegen, noch einmal über ein „One-Stop-Shop“-System nachzudenken und bei dieser Gelegenheit vielleicht auch die Kleinstaaterei bei der Datenschutzaufsicht – zumindest für KI-Systeme – auf den Prüfstand zu stellen?
Während wir also bei der KI-VO nicht auf die Gerichte warten sollten, hat im Urheberrecht die Stunde der Gerichte geschlagen. Dies gilt in besonderem Maße für die USA, wo die Database of AI Litigation (DAIL) der George Washington University inzwischen bereits 202 Einträge verzeichnet. Wenn man durch die Liste schaut, dann begegnet man vor allem urheberrechtlichen Auseinandersetzungen: Getty Images v. Stability AI, New York Times v. Microsoft, Andersen v. Stability AI, Authors Guild v. OpenAI, Concord Music Group v. Anthropic, Perry v. Shein, Chabon v. OpenAI und vielen mehr.
Dies überrascht nicht: Mächtige und milliardenschwere KI-Modelle wie ChatGPT oder Stable Diffusion bedrohen unmittelbar die wirtschaftliche Existenz von Autoren, Künstlern, Grafikern oder Journalisten. Die Bereitschaft, für Werke aus der Hand eines Menschen zu bezahlen, sinkt maßgeblich, wenn vergleichbare Texte oder Bilder nur einen Prompt entfernt kostenlos verfügbar sind. Gleichzeitig ist es wohl nicht möglich, die großen KI-Modelle ohne Einsatz urheberrechtlich geschützten Materials zu trainieren. Zugespitzt gesprochen füttern die Urheber also mit ihren Werken die Hand, die ihnen später ihre eigene Lebensgrundlage entzieht.
Auch wenn der Groll der Autoren nachvollziehbar ist, so stellt sich – wie so häufig seit dem Aufkommen der Digitalisierung – die Frage, ob das Urheberrecht eine Lösung bieten kann. In den USA wird vor allem die Frage der direkten Urheberrechtsverletzung durch den Einsatz von urheberrechtsgeschützten Werken im Trainingsprozess und die Anwendung der Fair-Use-Schranke auf das KI-Training diskutiert. Andere Aspekte sind die Verantwortlichkeit für mögliche Urheberrechtsverletzungen der Nutzer (secondary infringement) und die Entfernung von copyright management information, was nach dem Digital Millenium Copyright Act verboten ist.
In Deutschland – und wohl auch in Europa – hat das LG Hamburg (KIR 2024, 180 – in diesem Heft) mit seiner LAION-Entscheidung nun eine erste gerichtliche Einschätzung zu §§ 44a, 44b und 60d UrhG und zur Ausgestaltung des maschinenlesbaren Rechtevorbehalts formuliert. Damit ist die Diskussion aber erst am Anfang und das Spektrum möglicher Argumente keinesfalls erschöpft, weshalb die Beiträge von Dornis (KIR 2024, 156 − in diesem Heft) und Käde (KIR 2024, 162 − in diesem Heft) zwei unterschiedliche Perspektiven zur Anwendung des § 44b UrhG auf das KI-Training bieten.
Die Vielzahl und Unterschiedlichkeit der Verfahren in den USA zeigt, dass die urheberrechtliche Beurteilung vom Kontext und den Umständen des konkreten Falls abhängen könnte. Auch wenn sich dies im europäischen Urheberrecht wegen der fehlenden Fair-Use-Doktrin weniger flexibel abbilden lässt, könnte die Schranke-Schranke des Drei-Stufen-Tests (Art. 5 Abs. 5 UrhRL iVm Art. 7 Abs. 2 S. 1 DSM-RL) einen Ansatzpunkt bieten. Sowohl die große Weltpolitik wie auch die lokalen Landgerichte bieten also weiterhin viel Diskussionsstoff für das Verhältnis von Künstlicher Intelligenz und Recht. Wir freuen uns darauf, diese Diskussion in der KIR zu begleiten.
Prof. Dr. Christian Heinze, LL.M (Cambridge), ist Inhaber des Lehrstuhls für Bürgerliches Recht, Handels- und Wirtschaftsrecht, Europarecht und Rechtsvergleichung am Institut für deutsches und europäisches Gesellschafts- und Wirtschaftsrecht der Ruprecht-Karls-Universität Heidelberg und Mitglied des L3S Research Center für Web Science und digitale Transformation an der Leibniz Universität Hannover sowie Schriftleiter der KIR.