CHB_RSW_Logo_mit_Welle_trans
jaheader_neu

Fundamentale Signalwirkung

Von Dr. Stephan Rippert, LL.M.,
Die New York Times verklagt OpenAI und Microsoft wegen der Nutzung urheberrechtlich geschützter Werke. Der Vorwurf: Die Unternehmen hätten Millionen von Artikeln der Zeitung benutzt, um damit Chatbots zu trainieren. Fragen dazu an Rechtsanwalt Dr. Stephan Rippert.

RDi: Welche Signalwirkung geht von der Klage der NYT aus? 

Rippert: Der Streit zwischen dem Technologiesektor und der Inhaltsindustrie über

die urheberrechtlichen Verpflichtungen von KI-Unternehmen gewinnt mit dieser Klage an Fahrt. Das Gericht wird zu entscheiden haben, ob die Verwendung von urheberrechtlich geschütztem Material zum Trainieren von KI-Modellen ohne die Zustimmung der Urheber der Inhalte rechtswidrig ist. Der Ausgang dieses Verfahrens wird fundamentale Signalwirkung haben, wie OpenAI in Zukunft ausgestaltet werden kann, welche Inhalte verwertet werden dürfen, ob KI-Anbieter Genehmigungen einholen müssen, inwieweit Inhalteanbieter kommerzielle Vereinbarungen mit KI-Anbietern anstreben sollten, inwieweit Inhalteanbieter sich gegen die Nutzung ihrer Inhalte für die Entwicklung von generativen KI-Modellen schützen können.

RDi: Wie verläuft der Streit?

Rippert: Die NYT argumentiert, dass OpenAI unrechtmäßig urheberrechtlich geschütztes Material verwendet, um ihre großen Sprachmodelle (Large Language Models – „LLMs“) zu trainieren. Die von OpenAI und Microsoft kostenlos zur Verfügung gestellten generischen KI-Produkte würden als Ersatz für die eigenen Produkte dienen und damit der NYT Einnahmen nehmen, die zur Erhaltung des hohen Niveaus des Journalismus notwendig sind. NYT fordert daher Schadensersatz, verlangt Unterlassung für die weitere Nutzung ihrer Inhalte, und die Vernichtung aller LLM-Modelle und bestehenden NYT-Datensätze. In ihrer Erwiderung führt OpenAI aus, dass die Verwendung öffentlich zugänglicher, urheberrechtlich geschützter Inhalte für das Training von Modellen ein weithin akzeptierter Präzedenzfall ist, da er zur Weiterentwicklung der KI beiträgt. OpenAI beruft sich auf die Fair Use Doctrine und weist auf das Opt-out-Verfahren

hin, das Inhalteanbietern ermöglicht, den Zugriff von OpenAI auf ihre Websites zu verhindern.

RDi: Wie sehr bedrohen Chatbots das Geschäftsmodell von Zeitungen und Kreativen?

Rippert: Inhalteanbieter befürchten, dass Chatbots Inhalte liefern können, die präziser auf die Bedürfnisse des jeweiligen Nutzers zugeschnitten sind und damit der Traffic auf die Originalartikel reduziert wird. Das wiederum senkt die Abonnement- und Werbeeinahmen der Verlage und Inhalteanbieter. Einige Verlage fordern daher Lizenzgebühren für die Betreiber von Chatbots, um diese  Einnahmeverluste auszugleichen. Ferner argumentieren die Verlage, dass Nachrichtenbots den unabhängigen Qualitätsjournalismus beeinträchtigen. Auch die Tätigkeit von Kreativen kann bedroht sein, weil durch das sinkende Interesse an Artikeln Arbeitsplätze wegfallen oder der Journalismus rationalisiert werden könnte.

RDi: Wie können sich Urheber davor schützen, dass ihre Inhalte zu Trainingszwecken genutzt werden?

Rippert: Die Vervielfältigung von Texten zu Trainingszwecken kann eine Verletzung von Urheberrechten beinhalten, gegen die sich die Urheber mit Unterlassungs-, Beseitigungs- und Schadenersatzansprüchen wehren können. Allerdings erlaubt das deutsche Urhebergesetz die Vervielfältigung von digitalen oder digitalisierten Werken, wenn es sich dabei um Text und Data Mining handelt, das heißt eine automatische Analyse von digitalen Werken, um daraus Informationen insbesondere über Muster, Trends und Korrelationen zu gewinnen. Urheber können sich dagegen nur schützen, indem sie sich solche Nutzungen in maschinenlesbarer Form selbst vorbehalten. Ferner könnten Urheber auf vorgelagerte technische Schutzkonzepte wie Kopierschutzmechanismen zurückgreifen, die eine Nutzung eventuell erschweren oder nicht möglich machen.

RDi: Was bedeutet es für KI, wenn sie Werke aus urheberrechtlichen Gründen nicht nutzen kann?

Rippert: Machine-Learning-Techniken ermöglichen einer KI, aus großen Mengen von Daten zu lernen und auf dieser Grundlage Vorhersagen oder Entscheidungen zu treffen. Daten sind also in gewisser Weise der Treibstoff für die KI, ohne die sie sich nicht weiterentwickeln kann. Wenn die Möglichkeit der Nutzung von Daten aus urheberrechtlichen Gründen wegfällt, könnte dies bedeuten, dass die KI nicht gut genug trainiert werden kann, weil ihr nicht mehr die notwendige Bandbreite an Daten für eine diversifizierte Berichterstattung zur Verfügung steht. Perspektivisch sollten Inhalteanbieter und KI Unternehmen jedoch eine Lösung anstreben, die für beide Seiten von Vorteil ist.

Leseproben

RDi_Cover

RDi_2022_176-Aufsatz

BECK Stellenmarkt

Teilen:

Menü