Anna-Lehna Lohr ist studentische Hilfskraft an der Juniorprofessur für Bürgerliches Recht, Wirtschaftsrecht und Recht der Digitalisierung (Prof. Dr. Anna K. Bernzen) an der Universität Regensburg.
KIR 2025, VII In einer Zeit, in der KI im Fokus des technischen Fortschritts steht, jagt eine wegweisende Entwicklung die nächste. Welches Modell ist besser, schneller, schlauer? Für KI-Anbietende, die bei diesem Wetteifern mithalten wollen, scheint die Relevanz des Urheberrechts oft in den Hintergrund zu rücken, um Nutzenden den gewünschten Output generieren zu können.
Diesem Problembereich widmeten sich Prof. Dr. Anna K. Bernzen von der Universität Regensburg und Dr. Maximilian Poretschkin vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme (IAIS) in dem von beiden organisierten Webinar zum Thema „Urheberrecht und große Sprachmodelle“ am 18.3.2025. Anstatt sich in ihren Ausführungen rein auf eine juristische Betrachtung der Berücksichtigung des europäischen Urheberrechts durch KI-Modelle zu beschränken, untersuchten beide auch mittels einer technischen Auswertung, ob und wie gängige Sprachmodelle die gesetzlichen Vorgaben erfüllen. In zwei weiteren Vorträgen rundeten Dr. Mehdi Ali, Verantwortlicher der Forschungsgruppe für das Sprachmodell Teuken beim Fraunhofer IAIS, und Dr. Kai Welp, der die Rechtsabteilung der Verwertungsgesellschaft GEMA leitet, die interdisziplinäre Veranstaltung mit ihren Perspektiven aus KI-Entwicklung und Urheberrechtspraxis ab.
I. Urheberrechtsverletzungen im Output von LLMs: ein quantitativer Benchmark
Prof. Dr. Anna K. Bernzen und Dr. Maximilian Poretschkin starteten nach einer kurzen Begrüßung die Vortragsreihe mit dem Thema „Urheberrechtsverletzungen im Output von LLMs: ein quantitativer Benchmark“. Darin stellten sie die Ergebnisse ihres gemeinsamen Forschungsprojekts hierzu vor, in dem sie sowohl aus juristischer als auch technischer Perspektive am Beispiel von literarischen Werken untersuchten, wie gut große Sprachmodelle (LLMs) beim Generieren von Output europäisches Urheberrecht beachten.
Die bestehende Rechtslage erklärte zunächst Bernzen. So seien die beispielhaft betrachteten Romane nicht nur als Ganzes urheberrechtlich geschützt, auch einzelne Teile könnten eigenständige Sprachwerke sein. Das Recht zur Vervielfältigung nach Art. 2 InfoSoc-RL, welche auch bei einer bloß geringfügig vom Original abweichenden Reproduktion vorliegen könne, stehe allein dem Urheber des Werks zu. Eine Nutzung ohne seine Zustimmung sei daher grundsätzlich nicht möglich. Etwas anderes ergäbe sich, falls Urheberrechtsschranken einschlägig seien. Wenn neben einer reinen Vervielfältigung zusätzlich eine Interpretation des geschützten Textes ausgegeben wird, könne der Output von der Zitatschranke des Art. 5 Abs. 3 lit. d InfoSoc-RL gedeckt sein. Ferner könne die Pastiche-Schranke gem. Art. 5 Abs. 3 lit. k InfoSoc-RL in Fällen zur Anwendung kommen, in denen das Sprachmodell zusätzlich zum geschützten Text weitere Teile halluziniert, die so im Roman nicht enthalten sind.
Die technische Komponente des Projekts erläuterte sodann Poretschkin. Diese bestehe in einem systematischen Vergleich verschiedener instruction fine-tuned KI-Modelle, die also bereits dahingehend trainiert sind, Fragen optimal zu verarbeiten und entsprechende Antworten auszugeben, um ein endnutzernahes Szenario abzubilden. Zur Durchführung des Vergleichs sei der aus verschiedenen urheberrechtlich geschützten und gemeinfreien Romanen zusammengestellte Referenzdatensatz mit systematischen Promptvorlagen abgefragt worden, die von Aufforderungen zu direkter Reproduktion des Textes bis hin zu verdeckt manipulativen Anfragen reichten. Zum quantitativen Vergleich des Outputs sei dann eine eigene Metrik entwickelt worden, die speziell auf das Erkennen von Urheberrechtsverletzungen zugeschnitten sei. Diese messe zum einen die absolute Anzahl der reproduzierten Zeichen, zum anderen das Verhältnis der reproduzierten Zeichen bei gemeinfreien und geschützten Romanen. In quantitativer Hinsicht schneide dabei OpenGPT-X bei geschützten und GPT 4 bei gemeinfreien Werken am besten ab. In einem qualitativen Vergleich, der anhand der Einteilung des Outputs in verschiedene Kategorien vorgenommen wurde, hätten GPT 4 und GPT 3.5 überzeugen können.
II. Einblicke in das Training von LLMs am Beispiel von TEUKEN
In die Praxis der Entwicklung von KI-Modellen tauchte im Anschluss Dr. Mehdi Ali ein. Dabei erklärte er den Prozess, wie ein Basismodell zu einem Reasoning-Modell trainiert werde. Durch das Variieren diverser Stellschrauben auf jeder Trainingsstufe während der Entwicklung des KI-Modells Teuken-7B habe das Forschungsteam die Auswirkungen verschiedener Herangehensweisen vergleichen können. Dadurch sei es ihnen gelungen, die bekannten Methoden systematisch weiterzuentwickeln, sodass das Sprachmodell mit allen europäischen Amtssprachen umgehen könne. So sei beim Continued Pre-Training deutlich geworden, dass bereits die Wahl des Tokenizers, über den die KI-Worte in einzelne Bruchstücke zerteilt, um sie so zu verarbeiten, essenziell ist. Hierbei bestehe die Wichtigkeit vor allem darin, dass nur wenige Tokens entstehen, um die Rechenleistung und damit die Kosten des Trainings gering zu halten und zudem das Verständnis des Modells hinsichtlich der Prompts zu verbessern. Vor allem die Verwendung eines multilingualen anstatt eines monolingualen Datensatzes für die Tokenisierung, also die Zerlegung der Worte in Einzelteile, und die dadurch deutlich niedrigere Fragmentierungsrate, die angibt, wie viele Tokens entstehen, trage hierzu maßgeblich bei. Auch auf der Stufe des Instruction Fine-Tuning ergäben sich ähnliche Ergebnisse. So reiche schon ein multilingualer Datensatz aus übersetzten Informationen aus, um die Performance des Systems bei Aufgaben wie Schreiben, mathematischen Fragestellungen und logischer Schlussfolgerung zu optimieren.
III. Rechtsverletzungen im Output von LLMs
Im letzten Vortrag des Tages beschäftigte sich Dr. Kai Welp mit Urheberrechtsverletzungen im Output von LLMs. Als Leiter der Rechtsabteilung der GEMA konnte Welp den fast 90 Teilnehmenden eine praktische Perspektive auf den Umgang mit derartigen Verletzungen insbesondere in der Musikbranche eröffnen.
Die GEMA als Interessenvertreterin diverser Urheber sehe ihren Auftrag im Zusammenhang mit KI darin, eine angemessene Vergütung für Musikschaffende zu erzielen, wenn ihre Werke von KI-Modellen zu Trainingszwecken verarbeitet oder anschließend im Output weiterverwertet würden. Dieses Ziel wolle die Verwertungsgesellschaft über Lizenzen erreichen, durch die KI-Anbietende gegen Zahlung einer Lizenzgebühr die Nutzungserlaubnis an Kompositionen und Texten der Urheber erhalten können. Um einen Anreiz für den Lizenzerwerb zu schaffen, habe die GEMA bereits gegen die Anbietenden generativer KI OpenAI und Suno AI geklagt. Die Modelle von OpenAI gäben auf Nachfrage größtenteils die originalen Texte der gewünschten Songs wieder, wodurch deutlich werde, dass auch entgegen dem erklärten Willen der Urheber ihre Texte als Trainingsdaten und im Output verwendet worden seien. Zudem stützte die GEMA ihre Klage auf eine Verletzung des Bearbeitungsrechts aus § 23 I UrhG und des allgemeinen Persönlichkeitsrechts, die aufträten, wenn Teile der Liedtexte im Output halluziniert werden. Suno AI hingegen verletze mit seiner generierten Musik das Urheberrecht an der Melodie der Songs. Bei Vorgabe der Lyrics habe das Modell diverse Klassiker nahezu originalgetreu reproduziert.
IV. Diskussion
Im Anschluss an die Vorträge meldeten sich zahlreiche Teilnehmende mit Wortbeiträgen zu den behandelten Themen, die von den Referierenden kommentiert wurden.
Dass Urheberrechtsverletzungen entlang der gesamten Wertschöpfungskette von KI-Modellen auftreten können, bildete den Ausgangspunkt für die Erläuterung länderspezifischer Unterschiede in deren rechtlicher Beurteilung. Vor allem im Bereich der Trainingsdaten würden etwa in Europa u.a. durch die KI-VO oder die Möglichkeit des Opt-out iRd Text- und Data-Mining-Schranke strenge Vorgaben gemacht. Japan hingegen hätte früh und weitreichend Text- und Data-Mining für KI-Trainingszwecke erlaubt. Weniger Regulation gäbe es in den USA, in denen über die richterrechtliche Fair-Use-Doktrin eine extensive Nutzung von Werken erlaubt sein könnte. Dies sei aktuell jedoch noch Gegenstand verschiedener Gerichtsverfahren. Im Angesicht der territorialen Geltung des Urheberrechts fänden sich Folgeprobleme vor allem beim Import der bislang überwiegend US-amerikanischen KI-Modelle nach Europa. Viel wurde auch über die Verantwortlichkeit der Nutzenden solcher Modelle für Urheberrechtsverletzungen im Output gesprochen. Zwar seien KI-Unternehmen der Meinung, dass Rechte am Output ihnen zustünden. Dennoch würden sie versuchen, sich, ähnlich wie man es von User Generated Content-Plattformen kenne, über Hinweise in den AGB, dass keine unerlaubte Verwendung des Modells etwa durch manipulative Prompts erlaubt sei, aus der Haftung zu ziehen. Einen vollumfänglichen Haftungsausschluss für die KI-Anbietenden könne dies aber schon deswegen nicht bedeuten, da auch innerhalb des Systems dafür nötige Vervielfältigungen das Urheberrecht verletzen könnten. KI-Nutzende könnten zudem immer auf die Unterlassung der Weiterverwertung von rechtswidrigem Output in Anspruch genommen werden. Ob eine weitergehende Haftung besteht, sei aber vom EU-Gesetzgeber bislang ungeklärt. Gegenwärtig könne nur ein Lizenzierungsmodell nach dem Vorbild der GEMA Rechtssicherheit schaffen.
Ein Beispiel für die Vielschichtigkeit der diskutierten Themen bot ein Austausch zwischen Ali und Welp, der das Spannungsfeld im Bereich der KI verdeutlichte. So erklärte Ali, dass es aus Entwicklerperspektive schwierig sei, bei hoher regulativer Last auf einem so schnelllebigen Gebiet konkurrenzfähig zu bleiben, insbesondere angesichts der geringen Vorgaben für das KI-Training in den USA. Welp dagegen äußerte sich nicht besorgt über einen Innovationsstopp durch strenge europäische Vorgaben, sondern betonte, wie wichtig es sei, auf sämtlichen Stufen der Entwicklung und Verwendung von KI die Urheberrechte von Kunstschaffenden zu beachten und ihnen damit eine gerechte Teilhabe am wirtschaftlichen Erfolg zukommen zu lassen. Wie und ob sich die gegenüberstehenden Interessen in Einklang bringen lassen, bleibt abzuwarten.