Wem der dritte Band des Fantasy-Hits "Game of Thrones" nicht gefällt, der kann sich per ChatGPT ein alternatives Sequel generieren lassen. So taten es US-Anwälte und baten den KI-Chatbot darum, eine Fortsetzung des zweiten Bandes "A Clash of Kings" im Detail zu umreißen. Statt des eigentlich dritten Teils - "A Storm of Swords" - kam dabei eine Geschichte namens "A Dance with Shadows" heraus. Der Chatbot schlug mehrere Plot-Ideen vor, mit neuen Fraktionen, neuer Magie und neuen Ansprüchen auf den Eisernen Thron.
Das wiederum könnte nun zu Ansprüchen in der realen Welt führen. Mehrere Sammelklagen diverser Autorinnen und Autoren gegen OpenAI und Microsoft wurden nun zu einem Verfahren vor dem US-Bundesbezirksgericht New York (Süd) zusammengezogen. Die Klägerinnen und Kläger – darunter George R. R. Martin, Michael Chabon oder Sarah Silverman – werfen OpenAI vor, mit dem Training ihres Large Language Models Urheberrecht verletzt zu haben. Das KI-Unternehmen beruft sich indes auf die "Fair Use"-Regel des dortigen Urheberrechts.
US District Court wird entscheiden
Nach der "Fair Use"-Doktrin dürfen urheberrechtlich geschützte Werke ohne Erlaubnis zu diversen Zwecken eingesetzt werden, sofern sich die Verwendung als "fair" bzw. "angemessen" darstellt. Eine zentrale Streitfrage der Sammelklage liegt darin, ob das Training von KI-Modellen einen angemessenen Zweck im Bereich Bildung, Forschung oder Anregung geistiger Produktion verfolgt.
Der US-Bundesrichter Sidney Stein, der das Verfahren zur Entscheidung angenommen hat, bezieht sich in seiner Stellungnahme auf den KI-Output: "Eine vernünftige Jury könnte zu dem Schluss kommen, dass die angeblich rechtverletzenden Ergebnisse den Werken der Kläger in wesentlichen Punkten ähnlich sind". Er betonte auch, dass er damit zu diesem Zeitpunkt keine der beiden Rechtsauffassungen nahelegen wolle. Ob OpenAI und Microsoft tatsächlich von der "Fair-Use"-Doktrin geschützt seien, werde in einem späteren Stadium des Verfahrens entschieden.
Entscheidung nach Anthropic-Vergleich womöglich wegweisend
Ein ähnliches Gerichtsverfahren war im September 2025 noch abgewendet worden. Das US-Bundesbezirksgericht für Nordkalifornien hatte in einer summarischen Prüfung entschieden, dass das Unternehmen Anthropic beim Training des eigenen KI-Modells gegen die "Fair Use"-Doktrin verstoßen hatte. Zwar sei das Training an sich transformativ genug, um als "Fair Use" der (wohl raubkopierten) Bücher zu gelten. Allerdings war im Hintergrund eine "Bibliothek" der Bücher angelegt bzw. gespeichert worden, die auch abseits von Trainingszwecken bestand.
Anthropic – Betreiber des KI-Modells Claude – konnte die Sammelklage durch eine außergerichtliche Einigung und Zahlung eines historischen Betrages von 1,5 Milliarden Dollar vermeiden. Ob die Einigung Bestand hat, wird derzeit noch gerichtlich geprüft.
"Fair Use" und KI nicht zum ersten Mal vor Gericht
Das Bundesbezirksgericht für Delaware hatte bereits im Februar 2025 erstmals über eine "Fair Use"-widrige Verwendung im Rahmen von KI-Training entschieden. Dabei hatte der Betreiber von Westlaw – der größten juristischen Online-Datenbank weltweit – gegen den Konkurrenten ROSS Intelligence geklagt. ROSS habe die eigene Legal Tech-Suchmaschine über Umwege mit Inhalten von Westlaw trainiert– vor allem mit redaktionellen Leitsätzen der dort eingestellten Gerichtsentscheidungen.
Das Gericht versagte es dem Beklagten, sich hier auf die "Fair Use"-Doktrin zu berufen und bejahte damit eine Urheberrechtsverletzung. ROSS habe in 2.243 Fällen Inhalte von Westlaw direkt kopiert und als Trainingsdaten eingespeist. Dabei habe die KI die Informationen nicht lediglich als Inspiration genutzt, sondern systematisch für das eigene Training übernommen. Zuvor habe ROSS den Konkurrenten wohl erfolglos um eine Lizenz gebeten und sich erst danach entschieden, den Umweg über ein KI-Training zu gehen. Nicht zuletzt wegen des erlangten Wettbewerbsvorteils verneinte das Gericht eine Anwendung der "Fair Use"-Doktrin.
Die Sammelklage gegen OpenAI und Microsoft sieht sich daher vor einer neuen Ausgangssituation. Ein Verstoß gegen die "Fair Use"-Doktrin würde eine Urheberrechtsverletzung von historischem Ausmaß bedeuten. Ein Ergebnis ist wohl erst in mehreren Monaten, womöglich sogar Jahren zu erwarten.


