CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

8. Tagung GRUR Junge Wissenschaft – Kolloquium zum Gewerblichen Rechtsschutz, Urheber- und Medienrecht vom 23. und 24.6.2023 an der Universität Potsdam

Redaktion

Lina Marie Schauer ist Doktorandin und Akademische Mitarbeiterin an der Juniorprofessur für IT-Recht und Medienrecht (Tenure Track) von Prof. Dr. Björn Steinrötter an der Universität Potsdam.

Jette Markert ist Doktorandin und Wissenschaftliche Hilfskraft an der Juniorprofessur für IT-Recht und Medienrecht (Tenure Track) von Prof. Dr. Björn Steinrötter an der Universität Potsdam.

MMR-Aktuell 2023, 01016   Am 23. und 24. Juni 2023 fand die 8. Tagung der „GRUR Junge Wissenschaft – Kolloquium zum Gewerblichen Rechtsschutz, Urheber- und Medienrecht“ zum Thema „Plattformen – Grundlagen und Neuordnung des Rechts digitaler Plattformen“ in Potsdam statt. Die Organisatorinnen und Organisatoren, Prof. Dr. Johannes Buchheim (Phillips-Universität Marburg), Dr. Victoria Kraetzig (Goethe-Universität Frankfurt/M.), Prof. Dr. Juliane Mendelsohn (Technische Universität Ilmenau) und Prof. Dr. Björn Steinrötter (Universität Potsdam) begrüßten die rund 120 Teilnehmerinnen und Teilnehmer in den Räumlichkeiten der Universität Potsdam am Campus Griebnitzsee.

Freitag, 23.6.2023:

Panel 1 – Rechte und Gegenrechte an Plattforminhalten

Anschließend an Grußworte von Prof. Dr. Jens Petersen (Dekan der Juristischen Fakultät der Universität Potsdam), Dipl.-Ing. Stephan Freischem (Generalsekretär der GRUR) und Dr. Daniel Kendziur (Simmons&Simmons) eröffnete Dr. Aurelija Lukoseviciene (Universität Lund) das erste, von Prof. Dr. Péter Mezei (University of Szeged) moderierte Panel zum Thema „Rechte und Gegenrechte an Plattforminhalten“.

In ihrem Referat zum Thema „Gig Authorship: protection of platform authors in the context of the EU DSM Directive“ fokussierte sie sich auf die gegenwärtige Situation von Urheberinnen und Urhebern in einer plattformgestützten Umgebung. Am Beispiel nutzergenerierter Inhalte untersuchte sie die Beziehungen zwischen den Urhebern und den Plattformen unter der Wirkung der DSM-Richtlinie. (RL (EU) 2019/790 des Europäischen Parlaments und des Rates v. 17.04.2019 über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt und zur Änderung der RL 96/9/EG und RL 2001/29/EG („DSM-RL“), ABl. EU L 130 v. 17.5.2019, S. 92) Eingangs führte Lukoseviciene aus, dass die schöpferische Tätigkeit der Urheber in der virtuellen und der digitalen Welt gleich sei, die Vergütung indes Unterschiede zeige. Die Plattformen trügen eine dominante Marktposition und kreierten selbst Märkte, die neue Möglichkeiten der Vergütung von Werken vorsähen. Anhand der Videoplattform YouTube und der Online-Spieleplattform Roblox stellte die Referentin verschiedene plattformseitig vorgegebene Möglichkeiten zur Monetarisierung urheberrechtlich geschützter Inhalte und deren Bedingungen vor. Problematisch sei insoweit, dass die Möglichkeiten der Monetarisierung stets dem Willen der Plattformbetreiber unterlägen, die in der Lage seien, frei über deren Konditionen zu bestimmen. Dies führe im Endeffekt dazu, dass die Diensteanbieter selbst „Gesetze“ erließen und damit einen maßgeblichen Einfluss auf die Vergütung der Urheber nehmen. Um dem entgegenzuwirken, bedürfe es hinreichender Transparenz über die einzelnen Monetarisierungsverfahren der Plattformen. Entsprechende Transparenzpflichten könnten sich aus Art. 19 DSM-RL ergeben, wobei die Anwendung der Richtlinie allgemein für Computerprogramme ausgeschlossen sei. Hierdurch ergäben sich allerdings Regelungslücken. Abschließend resümierte die Referentin, dass sich die DSM-RL den Herausforderungen der digitalen Welt annehmen müsse. Um ein „Überleben“ der Urheber in einer Monopol- bzw. Monopsonsituation zu gewährleisten, sei die Eindämmung einseitiger Inhaltskontrollen und Demonetarisierungen ebenso notwendig, wie ein Recht auf Wechsel der Plattform bzw. Portabilität der Daten.

Anschließend führte Jasmin Brieske (Goethe Universität Frankfurt/M.) zum „Recht, Online-Inhalte als gesetzlich erlaubt zu kennzeichnen“ aus. Nach Art. 17 DSM-RL treffe Diensteanbieter die Pflicht zur ex post- und ex ante-Blockierung von urheberrechtsverletzenden Inhalten. Zwar bestehe insoweit keine ausdrückliche Anordnung, Filtersysteme einzusetzen, dies sei jedoch mit Blick auf die umfangreichen gespeicherten Datenmengen unabdingbar. Indes sei ein grenzenloser Einsatz dieser Systeme gleichermaßen ausgeschlossen. So scheide dieser etwa dann aus, wenn keine hinreichende systemseitige Unterscheidung zwischen zulässigen und unzulässigen Inhalten gewährleistet ist. Problematisch sei insbesondere, dass die Entscheidungen über die Zulässigkeit eines Inhaltes regelmäßig Grundrechtsrelevanz aufwiesen. Um diese Problematiken abzumildern, führte der deutsche Gesetzgeber ein System mutmaßlich erlaubter Nutzungen in §§ 9-12 UrhDaG ein. Beim Vorliegen der Voraussetzungen für das Bestehen einer mutmaßlich erlaubten Nutzung verschiebe sich die Rechtsdurchsetzungslast auf den Rechteinhaber. Dies werde zB dann ausgelöst, wenn der Nutzer den Inhalt selbst als gesetzlich erlaubt kennzeichnet. Brieske bewertete den Ansatz als grundsätzlich sinnvoll, sieht einen ausreichenden Nutzerschutz jedoch nur dann als faktisch gewährleistet an, wenn die Diensteanbieter die Regelungen zu den mutmaßlich erlaubten Nutzungen auch umsetzen.

Hieran anknüpfend widmete sie den zweiten Teil ihrer Präsentation der Durchsetzbarkeit von Nutzerrechten. Sie führte aus, dass die Nutzer bei Blockierung ihrer Inhalte primär auf die §§ 9-12 UrhDaG bzw. auf die Möglichkeit des Beschwerdeverfahrens verwiesen seien. Haben sie Letzteres erfolglos durchlaufen, bestehe potenziell ein Anspruch aus § 7 Abs. 2, 9 Abs. 1 UrhDaG gegen den Diensteanbieter auf das Hochladen des Inhalts bzw. das Unterlassen seiner Blockierung. In Betracht komme ferner ein vertraglicher Anspruch. Bei Fehlfunktionen des Filtersystems ergebe sich zudem bei wiederholt fälschlicher Blockierung erlaubter Inhalte ein – womöglich vorrangiger – Anspruch aus § 18 Abs. 6 UrhDaG, der durch entsprechende Nutzervereine geltend zu machen sei. Unabhängig von Ansprüchen bezogen auf einzelne Inhalte problematisierte die Referentin, ob sich ferner ein individueller Anspruch der Nutzer gerichtet auf die Anpassung der Filtersysteme ergebe. Mögliche Anknüpfungspunkte sah sie in § 9 Abs. 1 UrhDaG und § 11 Abs. 1 UrhDaG. Zweifel ergeben sich vor allem bei näherer Betrachtung von Wortlaut und Systematik der Normen. Denkbar seien daneben auch hier vertragliche Ansprüche aus der schuldrechtlichen Beziehung zwischen dem Diensteanbieter und dem Nutzer. Die systematische Blockierung von Inhalten stelle zwar eine Verletzung vertraglicher Schutzpflichten gegenüber den Nutzern dar, die Rechtsfolge richte sich jedoch auf den einzelnen Inhalt, nicht hingegen auf die Anpassung des Filtersystems. Ein möglicher Lösungsansatz finde sich im Mängelgewährleistungsrecht, wobei die Referentin auf die Art. 6, 8 Digitale-Inhalte-RL (RL (EU) 2019/770 des Europäischen Parlaments und des Rates v. 20.5.2019 über bestimmte vertragsrechtliche Aspekte der Bereitstellung digitaler Inhalte und digitaler Dienstleistungen, ABl. EU L 136, v. 22.5.2019, S. 1) als Anknüpfungspunkt verwies.

Abschließend untersuchte die Referentin mögliche deliktsrechtliche Ansprüche auf Anpassung des Filtersystems. Zwar verletze ein nicht ordnungsgemäß funktionierendes Filtersystem Verkehrssicherungspflichten, jedoch fehle es an der Verletzung eines sonstigen Rechts iSd § 823 Abs. 1 BGB. Indes seien Ansprüche aus § 823 Abs. 2 BGB denkbar, allerdings richte sich dessen Rechtsfolge ebenfalls auf den einzelnen blockierten Inhalt, nicht auf das Filtersystem als solches.

Panel 2 – Private Enforcement-Strukturen des Plattformrechts

Erster Referent des zweiten, von Dr. Max Dregelies (Universität Trier) moderierten Panels, zum Thema „Private-Enforcement-Strukturen des Plattformrechts“, war Max-Julian Wiedemann (Rechtsanwalt bei CMS). In seinem Beitrag zur „Zukunft der Störerhaftung im Äußerungsrecht“ widmete er sich der Frage, wie Plattformen für die im Auftrag ihrer Nutzer gespeicherten rechtswidrigen Inhalte de lege lata und de lege ferenda haften. Eingangs führte der Referent allgemein zu den Grundsätzen der Störerhaftung aus und untersuchte darauf aufbauend, wie künftige Rechtsakte sich auf diese auswirken. Er thematisierte zunächst den Digital Services Act (VO (EU) 2022 (2065 des Europäischen Parlaments und des Rates v. 19.10.2022 über einen Binnenmarkt für digitale Dienste und zur Änderung der RL 2000/31/EG (Gesetz über digitale Dienste, „DSA“), ABl. L 277 v. 27.10.2022, S. 1) und erläuterte, dass mit dessen Inkrafttreten keine Änderung der Haftungsgrundlagen verbunden sei, weswegen die Störerhaftung nach nationalem Recht fortbestehen könne. Etwas anders ergebe sich auch nicht aus dem Gesetz gegen digitale Gewalt, welches die Haftungsfragen ebenfalls unberührt lasse. Mit Blick auf die Abkehr von der Störerhaftung im Urheber- und Wettbewerbsrecht sei jedoch zu hinterfragen, ob sich nicht perspektivisch auch im Äußerungsrecht ein Umschwung in Richtung der täterschaftlichen Haftung für die Verletzung von Verkehrssicherungspflichten ergebe. Dies wäre laut Wiedemann denkbar und im Sinne eines einheitlichen Haftungsmodells zudem sinnvoll. Jedoch sei ein derartiger Paradigmenwechsel mit Blick auf die jüngste BGH-Rechtsprechung in den Entscheidungen „YouTube II“ und „Hotelbewertungsportal“ unwahrscheinlich. Dagegen spreche ferner, dass die Störerhaftung auch im Markenrecht weiter aufrechterhalten würde. Zudem fuße die Aufgabe der alten Rechtsprechungslinie im Lauterkeits- und Urheberrecht auf rechtsgebietsspezifischen Besonderheiten, die es im Äußerungsrecht nicht gebe. Käme es dennoch zu einer äußerungsrechtlichen Haftung für die Verletzung von Verkehrssicherungspflichten, ließen sich den Diensteanbietern lediglich Pflichten zu reaktiven Maßnahmen auferlegen, da automatisierte Filtersoftware die im Äußerungsrecht notwendigen Interessenabwägungen nicht vornehmen könnte.

Dem folgend führte Johannes Weigl (Ludwig-Maximilians-Universität München, Universität Potsdam) zu „Perspektiven privater Durchsetzung des DMA“ aus. Im ersten Teil seines Referats verschaffte der Referent den Tagungsteilnehmenden einen allgemeinen Überblick über den DMA (VO (EU) 2022/1925 des Europäischen Parlaments und des Rates v. 14.9.2022 über bestreitbare und faire Märkte im digitalen Sektor und zur Änderung der RL (EU) 2019/1937 und RL (EU) 2020/1828 (Gesetz über digitale Märkte, „DMA“), ABl. EU L 265 v. 12.10.2022, S. 1) und dessen Besonderheiten. Dabei hob er hervor, dass die Verordnung in zweierlei Hinsicht ein neuartiges Instrument darstelle: Die Regelungen der Verordnung normierten zunächst ein „Wettbewerbsrecht zweiter Ordnung“ (D. Wielsch), da die öffentliche Regulierung privater Regulierungsmacht im Fokus stehe. Obwohl der DMA ein Marktordnungsinstrument darstelle, dessen Verwandtschaft mit dem Kartellrecht evident sei, handele es sich jedoch nicht um klassisches Kartellrecht. Denn anders als bei der kartellrechtlichen Missbrauchskontrolle operiere man mit einer ex ante-Verhaltenssteuerung ohne die Möglichkeit einer Rechtfertigung aus Effizienzgründen.

Daran anknüpfend wendete sich Weigl den Grundfragen des private enforcement zu. Er erläuterte, dass die private Durchsetzung eine zunehmend wichtige Rolle einnehme und nannte verschiedene damit einhergehende Vorteile wie die Entlastung und Ergänzung behördlicher Durchsetzung sowie ihre abschreckende Wirkung als zusätzliches compliance incentive. Dabei sei nicht nur an Schadensersatz, sondern gerade auch Primärrechtsschutz und daran anknüpfenden einstweiligen Rechtsschutz zu denken. Der Referent schloss damit, dass der DMA grundsätzlich für die private Durchsetzung offen sei. Gegen Beschränkungen des private enforcement – etwa in zeitlicher Hinsicht oder auf follow-on-Schadensersatzklagen – wandte er sich sowohl de lege lata als auch de lege ferenda.

Den zweiten Teil seines Vortrags widmete Weigl der eigentlichen Umsetzung der privaten Rechtsdurchsetzung des DMA, wobei er zunächst auf die Legitimation und die Zwecke des private enforcement sowie auf dessen Grundvoraussetzungen einging. Dabei betonte er, dass die jeweils durchzusetzenden Pflichten nicht nur self-executing, sondern gerade auch individualschützend sein müssten.

Anschließend untersuchte Weigl, welche Anspruchsgrundlagen für die private Rechtsdurchsetzung konkret in Betracht kämen. Ob Ansprüche unmittelbar aus dem Unionsrecht folgten, ergäbe sich aus der Auslegung der jeweils in Betracht kommenden Vorschriften. Als Orientierungspunkt könne insofern das Kartellrecht dienen, wobei jedoch keine unbesehene Übertragung möglich sei. Letztlich sei zwischen den unterschiedlichen Anspruchsarten zu differenzieren. Dies bedeute, dass im Bereich des negatorischen Primärrechtsschutzes und des Schadensersatzes mit Blick auf den RegE zur 11. GWB-Novelle die kartellrechtlichen Mechanismen übertragbar seien. Etwas Anderes gelte hingegen bei auf ein positives Tun gerichtete Gebote, die selbst Anspruchsgrundlagen darstellten. Der Referent hob hervor, dass die Frage des jeweiligen Aktivlegitimation besonderer Aufmerksamkeit und perspektivischer Klärung bedürfe.

Abschließend gab Weigl einen Überblick über verschiedene Problemkreise aus prozessualer Sicht, von denen er zwei besonders hervorhob: Zunächst sprach er sich mit Blick auf die in Rede stehenden öffentlichen Interessen für eine Einschränkung der Dispositionsbefugnis der Parteien im Rechtsmittelbereich aus. Weiterhin begrüßte der Referent zwar prinzipiell die Reaktionen des DMA auf Beweisschwierigkeiten. Diese seien aber gerade im Schadens­ersatzbereich nicht ausreichend. Hier sei über ein sektorales Sonderbeweisrecht, aber auch über Modifikationen im Bereich der materiellen Schadensberechnung nachzudenken. Weigl schloss mit einem Hinweis auf weiteren Forschungsbedarf gerade aus prozessualer Sicht.

Daraufhin führte Dr. Patrick Zurth, LL.M. (Ludwig-Maximilians-Universität München) zur „Privaten Rechtsdurchsetzung im Digital Services Act“ aus. Zunächst widmete sich der Referent der Rolle der privaten Rechtsdurchsetzung im Allgemeinen und betonte mit Blick auf zahlreiche jüngst ergangene Urteile ihre hohe praktische Relevanz. Diese unterstrich er mit Verweis auf die untergeordnete Rolle der behördlichen Aufsicht bei der Auferlegung von Bußgeldern nach § 4 NetzDG, die in der Vergangenheit lediglich bei systematischen Verstößen gegen das NetzDG erfolgten. Daran anknüpfend wendete sich Zurth dem Individualschutz im Unionsrecht zu, wobei der Ausgangspunkt für die Beurteilung der Normen stets der Wille der Rechtssetzungsorgane sei. Der Maßstab dafür ergebe sich aus dem Wortlaut, der Grundrechtsbezogenheit, der funktionalen Subjektivierung und der Rechtsfolgenregelung. Er führte aus, dass eine Teilmenge der vom DSA auferlegten Pflichten einen Individualschutz böten und erläuterte einige ausdrückliche (Recht auf einen wirksamen Rechtsbehelf bei einem Gericht, Erwägungsgrund 55 S. 4 DSA; Entschädigungsanspruch, Art. 54 DSA; Anspruch auf Rückgängigmachung, Art. 20 Abs. 4 S. 2 DSA) sowie implizite Vorgaben der Verordnung.

Im weiteren Verlauf seines Referats kategorisierte Zurth einige individualschützende Normen des DSA. Er thematisierte dabei das Melde- und Abhilfeverfahren nach Art. 16 DSA und warf die Frage auf, ob sich ein Individualanspruch auf die Schaffung einer entsprechenden Infrastruktur ergebe. Weiter erläuterte er, dass der Begriff des Nutzers nach Art. 20 DSA nicht nur Vertragspartner der Plattformen, sondern ebenfalls Außenstehende umfasse. Abschließend resümierte der Referent, dass der privaten Rechtsdurchsetzung unter dem DSA eine größere Rolle zukomme, wobei die Verordnung den Weg dahin ebne. Ob das Unionsrecht Individualschutz verleihe, bestimme sich anhand verschiedener Auslegungskriterien, die auf den Willen der Gesetzgebungsorgane abzielten. Für den DSA sei in erster Linie auf die unmittelbare Betroffenheit von Grundrechten abzustellen. Er schloss mit der These, dass die privatrechtsgestaltenden Vorschriften des DSA im Einzelfall einen Leistungsanspruch verliehen, bestehende Ansprüche modifizierten und/oder zum Schadensersatz berechtigten.

Lars Pfeiffer (Universität Kassel) beendete den ersten Tag mit einem Beitrag zum Thema „Datenzugangsregeln in P2B-VO, (VO (EU) 2019/1150 des Europäischen Parlaments und des Rates v. 20.6.2019 zur Förderung von Fairness und Transparenz für gewerbliche Nutzer von Online-Vermittlungsdiensten, ABl. EU L 186 v. 11.7.2019, S. 57) DMA, DSA: Machtmissbrauchsverhinderung, Wettbewerbsförderung und Risikoeindämmung?“. Eingangs skizzierte er die ökonomischen Charakteristika digitaler Plattformen, die er als zwei- oder mehrseitige Märkte mit direkten und indirekten Netzwerkeffekten beschrieb, deren Hauptfunktion die Erbringung einer möglichst effizienten Vermittlungsleistung sei. Darauf aufbauend ging er auf die mit dem Plattformbetrieb einhergehenden Risiken und Herausforderungen ein. In diesem Zusammenhang problematisierte Pfeiffer, dass insbesondere bei marktmächtigen Plattformen eine Monopolbildung drohe und diese sich als „private Gesetzgeber“, u.a. in Bezug auf die Datennutzungsmöglichkeiten der verschiedenen Plattformteilnehmer, aufschwängen, indem sie die Rahmen- und Teilnahmebedingungen an der technischen Infrastruktur vorgeben. Möglichkeiten des datenzugangsbezogenen Machtmissbrauches bestünden etwa durch den Ausschluss Dritter von der Datennutzung oder der erschwerten Datenmitnahme, wie etwa bei der Übertragung von Kundenbewertungen von einer Plattform zur anderen. Mit Blick auf die zunehmende Bedeutung der Plattformen als Informationsmedien ginge von ihnen weiter das Risiko der Verbreitung von Desinformationen, Hassreden, Gewaltaufrufen aus, zudem bestehe die Gefahr undurchsichtiger Priorisierungen der Inhalte in Empfehlungs- und Rankingsystemen und der intransparenten Inhaltemoderation zulasten der Meinungsfreiheit.

Im weiteren Verlauf seines Referats widmete sich der Referent den Datenzugangsregelungen in den plattformspezifischen Rechtsakten, wobei er seinen Fokus auf die P2B-VO, den DMA und den DSA legte. Er führte aus, dass die Datenzugangsregeln der P2B-VO sich auf datenzugangsbezogene Transparenzpflichten in Art. 7 Abs. 3 lit. a und Art. 9 Abs. 1 P2B-VO beschränkten. Weitere Datenzugangsregelungen befänden sich in Art. 6 Abs. 8, 9, 10, 11 DMA sowie in Art. 40 Abs. 1, 4, 12 DSA. Pfeiffer beendete seinen Vortrag mit einer Bewertung der Datenzugangsregelungen und einem Ausblick. Er begrüßte den Ansatz, die von den Plattformen ausgehenden Gefahren und Risiken intensiv zu adressieren. Die EU nehme insoweit eine weltweite Vorreiterrolle bei der Plattform- und besonders Gatekeeper-Regulierung ein. Der gestufte Regelungsansatz, der im DSA ausdrücklich verankert sei, zugleich aber auch rechtsaktsübergreifend bei einer Betrachtung von P2B-VO und DMA festgestellt werden könne, erlaube eine weitestgehend angemessene Berücksichtigung der Risiken und Belastungsfähigkeit unterschiedlicher digitaler Plattformen. Positiver Effekt der Regulierung sei ihr Potenzial zur Steigerung des allgemeinen Verständnisses der Geschäftspraktiken digitaler Plattformen, der von ihnen ausgehenden Risiken sowie der von ihnen verwendeten Algorithmen. Negativ sei hingegen vor allem zu bewerten, dass die Datenzugangsansprüche nach DMA und DSA noch zahlreiche Fragen offen ließen und die praktische Wirksamkeit dieser Regelungen wesentlich von noch durch die Europäische Kommission vorzunehmenden Konkretisierungsleistungen abhänge.

Samstag, 24.6.2023

Panel 3 – Interdisziplinäre Perspektiven auf das Plattformrecht

Das dritte, von Prof. Dr. Tabea Bauermeister (Universität Regensburg) moderierte Panel „Interdisziplinäre Perspektiven auf das Plattformrecht“ begann mit einem Vortrag zum Thema „Herausforderungen durch international heterogene Gatekeeper-Regulierung“ von Liza Herrmann und Lukas Kestler (Max-Planck-Institut für Innovation und Wettbewerb in München). Gegenstand des Vortrags war die Untersuchung möglicher Regulierungsansätze für große Plattformunternehmen auf internationaler Ebene. Einleitend hoben die Vortragenden die Besonderheiten weltweit agierender Plattformunternehmen im Vergleich zu „klassischen“ Unternehmen hervor und stellten dar, welche wettbewerblichen und regulatorischen Probleme sich hieraus ergeben können. Daran anschließend stellten die sie verschiedene Plattformregulierungen auf europäischer und außereuropäischer Ebene wie den DMA, die Digital Markets, Competition and Consumers Bill aus Großbritannien, den Act on Improving Transparency and Fairness of Specific Digital Platforms aus Japan sowie verschiedene US-amerikanische Ansätze und deren Gemeinsamkeiten und Unterschiede vor. Dem folgend gingen sie auf bestehende internationale Kooperationsnetzwerke der nationalen Wettbewerbsbehörden ein. So bestehe zum einen das European Competition Network, das auf europäischer Ebene agiere und im Einzelfall die EU-Kommission beraten könne. Flankierend dazu existiere das International Competition Network, das weltweit tätig sei und Arbeitsgruppen bilde, welche unverbindliche Handlungsempfehlungen abgeben würden, aber nicht zur Konsultation spezifischer Einzelfälle herangezogenen werden könnten. Die Nützlichkeit derlei internationaler Kooperationen wurde im Anschluss anhand des „Google Privacy Sandbox“-Verfahrens beispielhaft dargestellt. Hierbei habe die britische Wettbewerbsbehörde infolge eines neu entwickelten Tracking Verfahrens im Februar 2022 Google Verpflichtungszusagen abgenommen, parallel dazu laufe jedoch bereits seit Juni 2021 ein Verfahren der EU-Kommission mit demselben Untersuchungsgegenstand. Die EU-Kommission müsse infolge der früheren Entscheidung der britischen Wettbewerbsbehörde nun erst einmal deren Entscheidung begutachten und feststellen, ob die weltweit implementierten Zusagen Googles auch in den Augen der EU-Kommission ausreichen. Zur Vermeidung solcher parallelen Verfahren stellten die Vortragenden zum Abschluss ihrer Ausführungen einen Lösungsansatz bestehend aus drei Säulen vor: Zunächst bedürfe es eine flexiblere gesetzgeberische Abstimmung zwischen den verschiedenen Gesetzgebern, zB durch die Entwicklung von Leitprinzipien. Zudem sei eine engmaschige internationale Behördenzusammenarbeit, auch in Einzelfällen, notwendig. Als dritte Säule bedürfe es schließlich einer frühzeitigen Beteiligung der Plattformunternehmen Gesetzgebungsverfahren.

Anschließend hielten Helena Kowalewska Jahromi und Deborah Löschner (Technische Universität Dresden) ein Referat zum Thema „Catch me if you can? Befunde zur Wirksamkeit und Regulierung von Dark Patterns auf digitalen Plattformen“. Zu Beginn des Vortrags stellten die Referentinnen die Macht der Plattformen bei der Auswahl der Inhalte und der Art ihrer Präsentation dar. Anschließend definierte Löschner Dark Patterns als Designstrukturen in digitalen Angeboten, die im Interesse von Unternehmen auf die Beeinflussung von Nutzenden zielen. Diese zeichneten sich zB durch farbliche Hervorhebungen aus, die Nutzende zur Auswahl bestimmter Schaltflächen bewegen sollen. Die Referentinnen betonten das große Spektrum an Designstrukturen und warfen die Frage auf, wie Entscheidungen einerseits an sich und anderseits speziell durch Dark Patterns manipuliert werden könnten. Im Folgenden ging Jahromi auf den DSA als neue Regelung ein, die das Phänomen der Dark Patterns konkret addressiert. Als Ausgangspunkt wählte sie die weite Definition des Begriffs in Erwägungsgrund 67 DSA, der eine Abgrenzung vom sog. „Nudging“ erforderlich mache. Dieses beeinflusse zwar ebenfalls Entscheidungen, verändere jedoch im Gegensatz zu Dark Patterns Entscheidungen in eine allgemein als positiv bewertete Richtung. Daran anknüpfend stellte die Vortragende Art. 25 DSA als Regelung des verpflichtenden Teils des DSA für Dark Patterns vor und betonte die Relevanz der Transparenzbestimmungen des Art. 27 DSA.

Anschließend widmeten sich die Referentinnen der Auslegung der im DSA verwendeten Begriffe „freie, informierte Entscheidung“, „Täuschung“ und „Manipulation“. Maßgeblich war dabei die Frage, wann in einer Darstellungsveränderung eine Manipulation und damit keine freie Entscheidung mehr liegt. Dabei ging Löschner auf den psychologischen Aspekt der Entscheidungsfindung ein und stellte hierzu die duale Prozesstheorie dar. Demnach zielten Dark Patterns auf automatisierte Entscheidungsfindung in bekannten Situationen ab. Diese Form der Entscheidungsfindung werde durch sog. Heuristiken (kognitive Shortcuts) und Biases (kognitive Verzerrungen) beeinflusst, wobei Dark Patterns zB Biases einsetzen, bei denen eine bereits festgelegte Option ausgewählt wird (sog. Default Bias) oder durch die Darstellung einer geringen Verfügbarkeit der Wert subjektiv gesteigert wird (sog. Scarcity Bias). Da Entscheidungen nicht im luftleeren Raum stattfinden würden, gäbe es keine vollständig freie Entscheidung. Sie würde aber „freier“, je mehr Informationen in die Entscheidung einbezogen werden. Für die Beurteilung, ob eine möglichst freie Entscheidung vorliege, sei maßgeblich, welche Faktoren konkret die Fähigkeit zur Wahrnehmung eines Dark Patterns vermindern, wie bewusst und wie stark der Entscheidungsprozess bearbeitet wird und welche Biases eingesetzt werden. Dementsprechend seien auch die Begriffe des DSA auszulegen. Schließlich gingen die Referentinnen auf das gewandelte Verbraucherleitbild des DSA ein und bewerteten den Ansatz des DSA zur Regulierung von Dark Patterns auf Plattformen als grundsätzlich begrüßenswert.

Zum Abschluss von Panel 3 referierte Macarena Viertel In~i?guez (Freie Universität Berlin) zu „The Influence of Choice Architecture in Digital Ecosystems on User Behaviour and Market Efficiency“. Sie stellte eingangs zwei Leitfragen auf: warum sollte das Wettbewerbsrecht die Aufmerksamkeit des Nutzers einer Plattform adressieren und wie sollte es dabei vorgehen? Zu Beginn ihrer Ausführungen stellte sie dar, wie Entscheidungen in digitalen Ökosystemen wie zB Google ihren Nutzern präsentiert werden, um auf diesem Wege deren Entscheidungen zu beeinflussen. Davon ausgehend ging sie auf den Begriff der Aufmerksamkeit ein. Diese sei eine rare und flüchtige Ressource, die, wenn sie gewonnen wurde, in Daten umgewandelt und an Dritte verkauft werden könne. Diese Kommerzialisierung habe zur Folge, dass in digitalen Ökosystemen die Aufmerksamkeit der Nutzer manipuliert werde. Hierbei komme die Architektur der Systeme zur Entscheidungsfindung ins Spiel, welche positiv und negativ konnotiert sein könne. Positive Beeinflussung seien zB Hilfeleistungen bei Informationsüberfluss, eine negative Beeinflussung könne hingegen in Form eines abhängig machenden Interface auftreten. Durch ein solches Interface käme es zur Formung von Gewohnheiten in Form eines Kreislaufs: Der Nutzende wird durch einen Auslöser zu Handlungen provoziert, erhält eine Belohnung in Form der Nutzung des Ökosystems und investiert in der Folge wieder in das System, zB durch Erstellung eines Profils, wodurch wiederum weitere Auslöser entstehen. Derartige Beeinflussungen der Nutzer zur Erregung ihrer Aufmerksamkeit führe laut Viertel In~i?guez zu einem Marktversagen, da die Anreize der Wettbewerber in der Täuschung der Nutzer und nicht in der Optimierung des Produktes liegen. Dem folgend stellte die Referentin verschiedene Faktoren für rechtliche Lösungsansätze vor. Zunächst würden solche Taktiken bereits von anderen Vorschriften wie Art. 4 Abs. 4, Art. 22 DS-GVO und Art. 25 DSA reguliert. Diese sollten jedoch nicht als Vorbild für ähnliche Regelungen im Wettbewerbsrecht dienen, da es eine flexible Regelung benötige, weshalb Soft Law zu bevorzugen sei. Für die Definition eines solchen rechtlichen Rahmens müsste auch ein Umdenken erfolgen, zB sollten Annahmen über das Wohlbefinden der Verbraucher online evaluiert werden. Zudem brauche es für die rechtliche Lösung neue Definitionen des Schadensbegriffs. So bedürfe es vor allem einer hinreichenden Differenzierung zwischen Schäden für Mitbewerber und für Verbraucher. Auch brauche es mehr Selbstregulierung der Plattformen in Form von Verhaltensregeln.

Die Referentin plädierte für eine Evaluierung der Annahme eines rationalen Verbrauchers. Es sei notwendig davon auszugehen, dass dieser einfach zu täuschen sei. Resümierend beantwortete Viertel In~i?guez am Ende ihre zwei Leitfragen damit, dass das Wettbewerbsrecht Aufmerksamkeit adressieren müsse, da die Art, wie diese zurzeit in digitalen Ökosystemen gewonnen wird, ein Marktversagen darstelle. Diesem müsse begegnet werden, indem das Konzept der Aufmerksamkeit in den analytischen Rahmen des Wettbewerbsrechts aufgenommen und das Wohlbefinden und die Rationalität des Verbrauchers neu betrachtet würde.

Hieran anschließend hielt Prof. Dr. Rupprecht Podszun (Heinrich-Heine-Universität Düsseldorf) eine Keynote zu dem Thema „Plattformregulierung – große Linien, kleine Erfolge und die Rolle der Wissenschaft“.

Panel 4 – Instrumente und Gegenstände des Plattformregulierungsrechts

Dr. Tobias Mast (Leibniz-Institut für Medienforschung/Hans-Bredow-Institut) eröffnete das von Dr. Svenja Behrendt (Universität Konstanz) moderierte Panel 4 zu „Instrumente und Gegenstände des Plattformregulierungsrechts“ mit einem Vortrag zu dem Thema „Plattformrecht als Europarecht“. Gegenstand waren die Herausforderungen, denen das Unionsrecht im Rahmen der Plattformregulierung begegnen muss. Einleitend stellte der Referent die Rolle von Plattformen innerhalb der EU vor. Diese würden unionsweit ein einheitliches Produkt anbieten, die Regulierung sei jedoch uneinheitlich und ohne einen gemeinsamen Allgemeinen Teil. Weitere Probleme lägen in unterschiedlichen Definitionen auf Grund zeitversetzter Erlassung zahlreicher Rechtsakte und komplexen Konkurrenzverhältnissen. Im zweiten Teil stellte er die Vorteile der Ausgestaltung des Plattformrechts als Verordnung im Gegensatz zur Richtlinie vor und hob hervor, dass die Verordnung im Gegensatz zur Richtlinie für ein stimmiges Gesamtsystem begünstigen würde. Allerdings würde die Ausgestaltung als Verordnung auch dazu führen, dass nationale Vorstöße und damit der Innovationswettbewerb der Rechtsordnungen unterbunden würde. Im folgenden Teil über Plattformrecht als europäisches Verwaltungsrecht ging Mast darauf ein, dass das Know-how für die Plattformregulierung aktuell nicht bei der Gesetzgebung, sondern bei den Plattformen selbst liege. In der Regel werde auf die Compliance der Plattformbetreiber gehofft und die Umsetzung im Anschluss überprüft. Dies sei auch Konsequenz der Rechtsprechung des EuGH zur Verhältnismäßigkeit von Eingriffen in die unternehmerische Freiheit. Für eine erfolgreiche Regulierung der Plattformen sei aber der Aufbau einer eigenen Expertise Voraussetzung. Neben diesem Wissensvorsprung der Plattformen sei auch der indirekte Vollzug der Regulierung durch die nationalen Behörden eine Herausforderung, wie am Beispiel von „Big Tech“ in Irland zu sehen sei. Zudem müssten die Behörden bei unionsweit tätigen Plattformen nicht nur eigene öffentliche, sondern auch ausländische Interesse durchsetzen.

Abschließend gab der Referent einen Überblick über das Verhältnis des Plattformrechts zum Grundrechtsschutz. Zunächst ging er dabei auf den vom BVerfG geforderten wesentlich vergleichbaren Grundrechtsschutz der EU ein und stellte diesen Schutz durch den EuGH, konkret die Entwicklung dessen Verhältnismäßigkeitsprüfung dar. Anschließend ging Mast auf die Rolle der GRCh ein, deren Anwendungsbereich auf Grund der hohen Regelungsdichte des Unionsrechts immer weiterwachse, sodass in Zukunft Grundrechtsinnovationen eher aus der Unionssphäre als aus der des BVerfG zu erwarten seien.

Im Folgenden sprach Prof. Dr. Hannah Ruschemeier (FernUniversität Hagen) zu „Wettbewerb der Aufsicht statt Aufsicht über den Wettbewerb? Kompetenzfragen der Plattformaufsicht aus verfassungsrechtlicher Perspektive“. Einleitend ging die Referentin überblicksartig auf den DMA und den DSA als neue Grundpfeiler der Plattformaufsicht ein und stellte deren Gesetzgebungsprozess, Zielrichtungen und Anwendungsbereich dar. Im Anschluss fokussierte sie sich auf die Aufsichtsstrukturen des DMA. Die Verordnung werde einzig durch die EU-Kommission durchgesetzt, die infolge eines Beschlusses über die Nichteinhaltung der Verpflichtungen des DMA gem. Art. 29 DMA Geldbußen gem. Art. 30 DMA verhängen kann. Eine private Durchsetzung werde nicht explizit vorgesehen, es bestehe aber die Möglichkeit von Beschwerden bei der EU-Kommission. Auch eine explizite Schadensersatzregelung finde sich nicht im DMA, möglich sei hingegen, dass der deutsche Gesetzgeber die Ansprüche auf Beseitigung und Unterlassen sowie Schadensersatz der §§ 33, 33a GWB auf den DMA erstreckt. Sodann ging Ruschemeier auf die Aufsichtsstrukturen des DSA ein und stellte die Beteiligten am Aufsichtsregime vor. Im Folgenden diskutierte sie die vom DSA vorgesehene Schwelle der Very Large Online Platforms (VLOPs). Dabei kritisierte sie, dass diese das Ergebnis einer risikoorientierten Verhältnismäßigkeitsprüfung sei, welche jedoch grundsätzlich keine Schwellenwerte benötigten. Die vom DSA abzuwehrenden Risiken seien nicht zwingend vom Status als VLOP abhängig. Anschließend ging die Referentin auf die Möglichkeit ein, dass VLOPs für die vom DSA vorgesehenen Audits die Prüfer selbst auswählen können, wodurch ein neues, sich auf wenige Anbieter konzentrierendes Ökosystem an Audit-Unternehmen entstehen könne. Hierunter könne die Qualität der Überprüfungen leiden, weswegen die Unabhängigkeit der Prüfer durch Schutzvorschriften gesichert werden müsse. Hierauf folgend stellte Ruschemeier den Vollzug des DSA durch das mehrstufige „Eskalationsverfahren“ der Art. 58 ff. DAS dar. Anschließend stellte die Referentin einen Vergleich zwischen der Rolle der EU-Kommission im DMA und im DSA an und ging näher auf die vom DSA vorgesehenen Koordinatoren für digitale Dienste ein. Die EU-Kommission habe demnach im DMA umfassende Befugnisse, die die Benennung und Überprüfung von Torwächtern sowie die Verhängung von Zwangsgeldern inkludieren, während der DSA die Untersuchungsbefugnisse auf Koordinatoren für digitale Dienste verlagere. Die EU-Kommission habe dennoch umfangreiche Sonderbefugnisse zur Risikobewertung und -minderung gegenüber VLOPs inne. Für Dienste, die die VLOP-Schwelle nicht überschreiten, könnten sich sehr unterschiedliche Durchsetzungsregime, abhängig von den zuständigen Koordinatoren, ergeben. Die Koordinatoren für digitale Dienste seien zudem zur völligen Unabhängigkeit verpflichtet und aus der nationalen Behördenhierarchie herausgelöst. Schließlich ging Ruschemeier auf den Begriff der Rechtswidrigkeit im Rahmen des DSA ein und stellte dar, dass der DSA zwar die Mitgliedstaaten nicht verpflichte, die Entscheidung über die Rechtswidrigkeit den jeweiligen Justizbehörden zu übertragen, die Behörden aber zumindest inzident die Rechtswidrigkeit prüfen können müssten.

Anschließend referierte Dr. Stefan Luca (University of Glasgow) zu dem Thema „Codes of Conduct as Experimentalism“. Kern des Vortrags war die bestehende und zukünftige Entwicklung von Verhaltensregeln für Plattformen zur Bekämpfung von Diskriminierung und Desinformationen. Zu Beginn warf der Referent die Frage, ob der Gesetzgeber Verhaltensregeln regulieren sollte und stellte Beispiele für solche Verhaltensregeln wie das Risikomanagementsystem des DSA vor. Für die Entwicklung von Verhaltensregeln könnten u.a. Plattformen dazu eingeladen werden, hierbei mitzuwirken. Die Durchsetzung von Verhaltensregeln erfolge meist privat durch die Plattformen selbst, es bestünden jedoch Tendenzen, Verhaltensregeln zu Gesetzen zu verhärten. Beispiele für solche gesetzlichen Verhaltensregeln finden sich in der DS-GVO oder dem DSA. Eine solche Regulierung fordere die Plattformen auf, ihre Verhaltensregeln entsprechend anzupassen. In solchen Fällen würde zunächst der Staat die Plattform regulieren und die Plattform in Umsetzung dieser Vorgaben ihre Nutzer.

Hieran anschließend stellte der Referent die Frage, ob der sog. Experimentalismus zur Entwicklung neuer Verhaltensregeln genutzt werden könne. Im Rahmen des Experimentalismus würden die Plattformen selbst mit verschiedenen Regulierungsmodellen experimentieren. Merkmale dieses Prozesses sei die gemeinsame Zielsetzung, ein weites Ermessen der Akteure, Peer Reviews der vorgenommenen Maßnahmen sowie die mehrfache Wiederholung des gesamten Prozesses. Die Teilnahme an diesem Verfahren könne durch eine Bestrafung der Nicht-Teilnahme sichergestellt werden. Vorteil des Experimentalismus sei dabei eine gewisse Flexibilität durch fehlende vorbestimmte Lösungen. Zudem würden dadurch die Stakeholder mobilisiert werden, durch die eigene Expertise einen erkenntnisbezogenen Beitrag zur Schaffung von Verhaltensregeln zu leisten. Ein Nachteil würde aber in der fehlenden Bindungswirkung der durch Experimentalismus erreichten Ansätze liegen, da die Plattformen nur sich selbst gegenüber verpflichtet seien.

Im Folgenden stellte Luca klar, dass es innerhalb der EU bereits experimentalistische Ansätze gäbe, die „im Schatten“ der Gesetze Verhaltensregeln entwickeln würden. So würde es einen Experimentalismus-Prozess zur Bekämpfung von Desinformation geben, der sich bereits in seiner zweiten Iteration mit einer zur ersten Iteration erhöhten Teilnehmerzahl befindet. Hieraus habe sich ein Katalog von 44 Verpflichtungen ergeben, wobei zwischen Kern- und optionalen Verpflichtungen unterschieden werden könne. Anschließend stellt der Referent die Unterschiede zwischen einer gesetzlichen Regulierung und durch Experimentalismus erzielte Verhaltensregeln dar. Zum einen würde sich Ersteres an Maßnahmen orientieren, während Letzteres zielorientiert sei. Zudem sehe der DSA eine zentralisierte Überwachung vor, während bei Experimentalismus auf einen Peer Review gesetzt werde. Unklar sei bei alledem die Rolle der EU-Kommission. Abschließend formulierte Luca den Vorschlag perspektivisch zu untersuchen, in welcher Form Stakeholder bei der Erstellung von Verhaltensregeln mitwirken sollten, ob Experimentalismus strategisch sei und inwiefern Verhaltensregeln die Anpassung von Plattformen vorantreiben.

Felicitas Rachinger (Universität Innsbruck) schloss das Panel mit einem Vortrag über „Ungleichbehandlung von Inhalten marginalisierter Personen in Online-Kommunikationsräumen“. Sie eröffnete ihre Präsentation anhand des Beispiels der Kurzvideoplattform TikTok, die eingestand, systematisch marginalisierte Nutzer unterdrückt zu haben. Anhand dessen verdeutlichte sie die Unterdrückung von Inhalten marginalisierter Gruppen. Sodann stellte die Vortragende die Rolle von Plattformen bei der Verbreitung von Inhalten dar. Diese würden vor allem durch Gemeinschaftsstandards oder Nutzungsbedingungen sowie Empfehlungsalgorithmen, die zB bestimmte Wörter unterdrücken, steuern, welche Inhalte von welchen Personen in welcher Form und Intensität Verbreitung finden. Anschließend ging Rachinger auf die einfachgesetzliche Regulierung solcher Techniken ein und betonte zunächst, dass private Plattformen nicht unmittelbar an die Grundrechte gebunden seien, der Staat jedoch ein Interesse an Meinungsvielfalt und Antidiskriminierung habe. Als einfachgesetzliche Regelung, die ein Unterdrücken marginalisierter Inhalte verhindern könnte, stellte sie sodann auf § 94 MStV ab. Diese Vorschrift enthalte ein Diskriminierungsverbot für Medienintermediäre und erfasse sowohl die systematische Abweichung von Kriterien der Inhaltemoderation ohne sachlich gerechtfertigten Grund als auch die systematische Behinderung der Angebote durch unbillige Kriterien. Dies beziehe sich aber nur auf journalistisch-redaktionell gestaltende Angebote, welche Plattformen jedoch häufig nicht vorhielten. Eine weitere einfachgesetzliche Regelung finde sich im Antidiskriminierungsrecht, welches im Bereich der Güter und Dienstleistungen bei Vertragsschluss und dessen Durchführung greife. Problematisch sei aber der Nachweis der Diskriminierung. Die Referentin stellte in diesem Rahmen auch das österreichische Antidiskriminierungsrecht vor. Dieses habe einen eingeschränkten Anwendungsbereich im Bereich der Güter und Dienstleistungen, der nur Diskriminierungen auf Grund ethnischer Zugehörigkeit, Geschlecht und Behinderung erfasse. Im Anschluss ging sie auf den Diskriminierungsschutz des DSA ein. Dieser habe seine Grundlage in dem Recht auf Nichtdiskriminierung gem. Art. 21 GRCh und weise bezogen auf Diskriminierungsgründe ein breites Verständnis von Diskriminierung auf. Konkrete Antidiskriminierungsregelungen fänden sich insbesondere in Art. 14 Abs. 4 DSA, wonach bei der Anwendung und Durchsetzung der AGB auch ein diskriminierungsfreies Vorgehen notwendig sei. Zudem könne systematische Diskriminierung durch die Risikobewertung nach Art. 34 DSA Beachtung finden. Schließlich resümierte Rachinger, dass der einfachgesetzliche Diskriminierungsschutz für Plattformen unzureichend sei, der DSA aber Mittel beinhalte, um systemischen Problemen zu begegnen. Hierfür erfordere es entsprechendes Wissen über die Diskriminierung.

Anzeigen

MMR kostenlos testen

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü