CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

„Geistiges Eigentum“ ist tot - lang lebe ChatGPT

Professor Dr. Thomas Hoeren ist Direktor der zivilrechtlichen Abteilung des Instituts für Informations-, Telekommunikations- und Medienrecht der Westfälischen Wilhems-Universität und Mitherausgeber der MMR.

MMR 2023, 81   Frage an ChatGPT: „Welche urheberrechtlichen Probleme verursacht ChatGPT?“

Antwort: „ChatGPT ist ein leistungsfähiges Sprachgenerierungsmodell, das von OpenAI entwickelt wurde und in der Lage ist, menschenähnlichen Text zu erzeugen. Es ist jedoch wichtig, sich der potenziellen rechtlichen Gefahren bei der Verwendung dieses Modells bewusst zu sein, insbesondere im Hinblick auf das Urheberrecht.

Ein Problem besteht darin, dass ChatGPT Text erzeugen kann, der bestehenden urheberrechtlich geschützten Werken ähnlich oder mit ihnen identisch ist. Wenn dieser generierte Text ohne entsprechende Erlaubnis verwendet oder verbreitet wird, könnte dies als Urheberrechtsverletzung angesehen werden.

Ein weiteres Problem besteht darin, dass ChatGPT dazu verwendet werden kann, Texte zu erstellen, die darauf abzielen, zu täuschen oder zu betrügen, zB durch das Erstellen von gefälschten Nachrichtenartikeln oder das Nachahmen von echten Personen. Dies könnte zu rechtlichen Problemen für diejenigen führen, die das Modell für diese Zwecke verwenden.

Es ist auch wichtig, die ethischen Implikationen der Verwendung von ChatGPT zu bedenken. Dieses KI-Modell wie auch andere ähnliche Modelle basieren auf einer riesigen Menge an Textdaten, die aus dem Internet entnommen wurden, darunter auch eine Vielzahl von urheberrechtlich geschützten Werken. Es ist wichtig, das Modell in einer verantwortungsvollen Weise zu verwenden, die die Rechte von Urheberrechtsinhabern und anderen Personen respektiert.

Zusammenfassend lässt sich sagen, dass die rechtlichen Risiken, die mit der Verwendung von ChatGPT verbunden sind, die Möglichkeit von Urheberrechtsverletzungen, Betrug und Nachahmung sowie ethische Implikationen umfassen. Es ist wichtig, dass sich die Nutzer dieser Risiken bewusst sind und das Modell verantwortungsbewusst und legal nutzen.“

So schreibt einer, der ein schlechtes Gewissen hat. Der Text wurde von ChatGPT geschrieben, einem der führenden Tools Künstlicher Intelligenz zur Abfassung von Texten. Der Prototyp des derzeit führenden generativen KI-Sprachmodells GPT-3 von OpenAI wurde am 30.11.2022 öffentlich zugänglich gemacht und ist seitdem frei zugänglich und kostenlos verfügbar. Dem Tool kommt besondere Bedeutung zu, da Microsoft es kaufen und in Word, PowerPoint und Excel integrieren will. Damit entsteht eine Allianz von KI und IT-Industrie, die historische Ausmaße annimmt.Aber wie das System selbst zugibt, bereitet ChatGPT zunehmend rechtliche Bauchschmerzen. Jüngst hatten schon Eric Hilgendorf und Kollegen in der FAZ (v. 9.1.2023, S. 18) die Verwendung fremden geistigen Eigentums durch solche Tools als besonders brisant herausgestellt. Auf die schwierigen urheberrechtlichen Fragen bei der Verwendung fremder Texte ohne menschliche Kontrolle und die damit verbundenen zivil- und strafrechtlichen Haftungsprobleme hin: „Pauschale Technikkritik, belustigtes Zuschauen oder die Flucht in eine unkritische Verweigerungshaltung führen jedoch nicht weiter ... . Vielmehr gilt es, ... eine neue Digital- und Medienkompetenz zu entwickeln, mittels derer die neue Technik gemeinwohlfördernd eingesetzt werden kann.“ In der Tat steckt der Einsatz von KI-Methoden bei ChatPGT noch in den Kinderschuhen. Aber das Tool wird garantiert im Laufe der Zeit immer besser. Schon wurde ChatGPT in leicht modifizierter Version (GPT-3,5) als Chat-Variante für die Echtzeit-Kommunikation angekündigt. Der nächste Innovationsschub steht mit GPT-4 bereits vor der Tür, das in den nächsten Monaten erscheinen soll und sowohl eine höhere Geschwindigkeit wie auch Qualitätssteigerung verspricht. Damit zeigt sich gerade im Zusammenspiel mit anderen KI-Werkzeugen und Anwendungssoftware enormes Entwicklungs- und Streitpotenzial. Man denke nur an die oben verwendete Verbindung mit dem Übersetzungs- und Rückübersetzungswerkzeug Deepl oder die Verbindung mit Umformulierungssoftware wie Wordtune oder Rephrase.info (ausführlich beschrieben von Bach und Weßels, FAZ v. 21.12.2022, S. N4).

Wie soll jetzt eine Urheberrechtsordnung auf solche Vorgänge reagieren? Der Vorschlag Hilgendorfs (und von ChatPGT oben) scheint zu einer verstärkten Medienkompetenz zu schwach zu sein; was soll eine solche Kompetenz bringen und wie soll sie das Urheberrecht im KI-Zeitalter durchsetzen helfen? Wenig ist auch von einer reinen Ablehnungstechnik zu halten. Die Online-Bildagenturen Getty Images und Shutterstock untersagen zB ab sofort das Einstellen von Fotos, die von einem Algorithmus generiert wurden. All diese restaurativen Denkansätze bleiben naiv und oberflächlich; der Siegeszug von KI lässt sich so nicht aufhalten. Sie verkennen insbesondere die radikale Umwälzung, vor der unsere Gesellschaft im Zeitalter der Digitalisierung wirklich steht.

Schon lange wird im Urheberrecht der Abschied von dem Autor heraufbeschworen. Poststrukturalistisch hatte schon Roland Barthes den Autor für tot erklärt, allerdings fast 60 Jahre zu früh. Es gibt im Zeitalter der KI keinen Urheber mehr, einen Schöpfer eines ChatPGT-Werks kann man nicht mehr finden. Das Urheberrecht in seiner aktuellen Form ist für Bedrohungen durch KI in diesem Ausmaß nicht gerüstet. Wo es einst darauf ankam, ein Werk einem Autor als Urheber zuzuordnen, geht es nunmehr kaum mehr um die Täuschung über die Urheberschaft, sondern vielmehr um die Irreführung durch die Behauptung der potenziellen Nutzer, es handele sich um ein Werk als solches. Ein solches erfordert eine persönlich-geistige Schöpfung. Eine geistige Schöpfung wird bei Texten, die durch ChatGPT erstellt wurden, regelmäßig nicht vorliegen, da die Rückführbarkeit auf einen geistigen Schaffensprozess durch die bedienende Person durch die reine Anweisung, einen Text zu einem speziellen Thema zu schreiben, nicht mehr gegeben ist. Damit begegnet das Urheberrecht einer bis dahin nie da gewesenen Herausforderung, der es noch nicht gewachsen ist. Die Täuschung über die Werkcharaktereigenschaft als solche, die erst dadurch entsteht, dass sich eine Person als Urheber ausgibt, die keiner ist, da es keinen gibt.

Auch mittels Digital Rights Management (DRM) lassen sich nur noch einzelne Schnipsel denkbarer Urheber ausmachen, die in dem ganzen Konglomerat eines KI-Werks keine Rolle mehr spielen. Insofern fehlt den Verwertungs- und Urheberpersönlichkeitsrechten das personelle Substrat. Das lässt sich auch nicht durch eine Anerkennung einer Urheberstellung für den KI-Tool-Programmierer umgehen, da dann zu viel an Output einer einzelnen Person zugeordnet würde, die allenfalls eine geringfügige Rolle bei der „Arbeit“ des KI-Tools spielen. Im Grunde gelangt jetzt die in § 51a UrhG eingefügte Ausnahmeregelung für Pastiche zu einer äußerst bedrohlichen Beschreibung des Endes des Urheberrechts. Denn da stehen wir ja jetzt schon. Die alten Kämpfe der Content-Industrie gegen Internetpiraten sind Peanuts angesichts der neuen Bedrohungen durch KI. Maschinelles Lernen droht mit ihren Werkzeugen den klassischen Autoren überflüssig werden zu lassen und das Urheberrecht als Ganzes auszuhebeln. Dem stehen die Urheber und ihnen folgend die Content-Industrie hilflos gegenüber, die sich nur dadurch retten können, dass sie gesamtgesellschaftliche Umverteilungsmechanismen instrumentalisieren. Insbesondere über die Verwertungsgesellschaften mag es gelingen, noch allgemein (Pauschal-)Zahlungsströme für die Verwertung von Inhalten durch KI-Werkzeuge zu generieren. Einzelnen alt-antiquierten Urhebern mag es dann noch unbenommen sein, sich generell der Digitalisierung ihrer Werke iRv Urheberpersönlichkeitsrechten verstärkt durch DRM zu widersetzen. Ansonsten werden GEMA und Co. zu neuen Treuhändern primärrechtlicher Nutzungsrechte (mit hoffentlich verstärkter Aufsicht durch die Kontrollbehörden). Das wird dann zu neuen Tarifen für die Verwertung durch KI-Systeme führen müssen. Und das ganze System der Leistungsschutzrechte steht auf dem Prüfstand, vor allem die Frage, ob eigentlich KI-Systeme Software iSv § 69a UrhG oder Datenbanken nach § 87a UrhG sind oder irgendetwas anderes beinhalten. Vermutlich ist das Kriterium der qualitativen oder quantitativen wesentlichen Investition besser geeignet, mit den Anforderungen der Informationsgesellschaft klar zu kommen, auch wenn dann Kreativität im Urheberrecht allmählich zum Randphänomen wird.

Die lakonische Antwort von ChatGPT: „Es ist jedoch wichtig zu beachten, dass es in Bezug auf die AI-Generation von Inhalten und ihre Beziehung zum Urheberrecht noch keine klaren Gesetzgebungen und Regelungen gibt und es auch je nach Land unterschiedlich sein kann.“

Ebenso nicht erkannt, geschweige denn gelöst, sind die Anforderungen an das „geistige Eigentum“ in prüfungsrechtlich relevanten Situationen. Wie kann man bewirken, dass böswillige Studenten oder Schüler nicht einfach ihre Abschlussarbeiten von einem KI-Tool schreiben lassen? Man kann so reagieren wie viele meiner Kollegen an der juristischen Fakultät der Universität Münster, nämlich gar nicht. Verwiesen wird darauf, dass das reine Zukunftsmusik sei. Allenfalls überlegt man, einen Schutzwall gegen solche Bedrohungen zu errichten, etwa indem man in Prüfungsordnungen ausdrücklich solche Tools verbietet. Ob solch eine Mauer wirklich hält, wage ich zu bezweifeln. Anstatt KI oder ChatGPT in der Schule/Hochschule zu verbieten, sollte KI dort ganz besonders thematisiert und unterrichtet werden. Andere Forscher denken insoweit progressiver und beziehen den Umgang mit KI-Tools in die Ausbildungssituation mit ein. Zu Recht fordert Weßels, neue Ansätze zu etablieren, die nicht nur das Endergebnis, sondern auch explizit den Prozess der Entstehung des Dokuments berücksichtigen. Zu prüfen sei auch der „inhaltlich/methodische Aufbau im Sinne eines Forschungsdesigns und das dazu ausgewählte technische Tool-Design inklusive KI-gestützter Werkzeuge“ (Forschung und Lehre v. 20.12.2022). Letztendlich bleibt aber nur der Rückweg zur mündlichen Prüfung. Nur bei solchen mündlichen Kolloquien ist man in der Lage, effektiv zu prüfen, was ein menschlicher Schützling wirklich weiß.

Münster, im Februar 2023

 


Anzeigen

MMR kostenlos testen

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü