Louisa Specht-Riemenschneider

Plattformbetreiberhaftung auf dem Prüfstand - Mit gemeinsamen Leitlinien in die Zukunft?


MMR 2020, 137   Plattformen stehen derzeit im Zentrum rechtlicher Diskussion. Es ist ihre Mittlerrolle, die zunehmend Probleme bereitet. Als Gatekeeper oder, je nach Blickwinkel, als Gate-Opener selektieren sie aus der Fülle online verfügbarer Inhalte diejenigen Inhalte, nach denen wir entweder aktiv suchen oder die sie für unseren Vorlieben entsprechend erachten. Sie ermöglichen Rechtsverletzungen durch das Teilen von User-Generated-Content sowie Hasskommentaren und sind medial in vergangener Zeit auch datenschutzrechtlich aufgefallen. Plattformen sind u.a. aus diesen Gründen derzeit Gegenstand umfassender Bemühungen einer rechtlich adäquaten Erfassung, sei es im Vertragsrecht hinsichtlich des Ob und Wie des Abschlusses eines Plattformnutzungsvertrags und der daraus resultierenden Rechte und Pflichten, im Urheberrecht durch Art. 17 DSM-Richtlinie, im neu überarbeiteten Entwurf zur Anpassung des NetzDG oder auch durch die Vorgaben der noch umzusetzenden AVMD-Richtlinie und hier insbesondere durch Art. 28b. Und auch im öffentlichen Medienrecht wurde Handlungsbedarf gesehen, was jüngst zur Verabschiedung eines neuen Medienstaatsvertrags geführt hat, der u.a. Informationspflichten für die von Intermediären vorgenommene Inhaltssortierung vorsieht sowie ein daran anknüpfendes Verbot, die betroffenen Inhalte anderweitig als nach den offenzulegenden Kriterien zu aggregieren, zu selektieren und zu präsentieren.

Weitet man den Blick auf sämtliche der angesprochenen Rechtsgebiete, werden rechtsgebietsübergreifende Linien erkennbar, wie die Tendenz, Plattformen stärker in die täterschaftliche Verantwortung zu nehmen und zunehmend Rechtsschutz durch Technikgestaltung zu gewährleisten, d.h. die Plattformgestaltung und die Voreinstellung zu regulieren.

Beide Leitlinien bedürfen der Erläuterung: Im Lauterkeitsrecht hat das Modell täterschaftlicher Haftung auf Grund Verkehrspflichtverletzung die Störerhaftung seit der BGH-Entscheidung „Jugendgefährdende Medien bei eBay“ v. 12.7.2007 abgelöst (MMR 2007, 634 m. Anm. Köster/Jürgens). Aber auch im Gewerblichen Rechtsschutz sind Tendenzen zur Ausweitung der Täterhaftung erkennbar (hierzu ausf. Hohlweck, ZUM 2017, 109, 114). Sobald sich Plattformen Inhalte zu Eigen machen, haften sie ohnehin täterschaftlich. Dieselben Grundsätze finden wir im Äußerungsrecht und im Urheberrecht, wo nun allerdings diese täterschaftliche Haftung erstmals auch durch Umsetzung von Art. 17 DSM-RL gesetzlichen Niederschlag finden wird. Dies bedeutet zumindest für bestimmte Plattformen künftig, dass sie grundsätzlich für rechtswidrige Inhalte ihrer Nutzer auf Unterlassung und Schadensersatz in Anspruch genommen werden können ohne zuvor von der Rechtsverletzung in Kenntnis gesetzt worden zu sein. Art. 17 DSM-RL privilegiert sie nur dann in der Haftung, wenn sie den Nachweis für folgende drei Dinge erbringen:

  • sie haben alle Anstrengungen unternommen, um die Erlaubnis zur öffentlichen Wiedergabe des betreffenden Werks einzuholen (Verhandlungselement),
  • sie haben nach Maßgabe hoher branchenüblicher Standards für die berufliche Sorgfalt alle Anstrengungen unternommen, um sicherzustellen, dass bestimmte Werke und sonstige Schutzgegenstände, zu denen die Rechteinhaber den Anbietern dieser Dienste einschlägige und notwendige Informationen bereitgestellt haben, nicht verfügbar sind (präventives Aktionselement) und
  • sie haben nach Erhalt eines hinreichend begründeten Hinweises von den Rechteinhabern unverzüglich gehandelt, um den Zugang zu den entsprechenden Werken oder sonstigen Schutzgegenständen zu sperren bzw. die entsprechenden Werke oder sonstigen Schutzgegenstände von ihren Internetseiten zu entfernen, und alle Anstrengungen unternommen, um das künftige Hochladen dieser Werke oder sonstigen Schutzgegenstände zu verhindern (Notice-and-Stay-Down-Element).

Weil die Leitlinien zur Haftung von Plattformen rechtsgebietsübergreifend erkennbar sind, steht zu befürchten, dass das mit diesen drei Elementen beschriebene Konzept der Uploadfilter ebenfalls auf andere Rechtsgebiete übertragen wird. Allerdings hat der EuGH u.a. in den Rs. SABAM/Netlog (MMR 2012, 334 m. Anm. Solmecke/Dam) und Scarlet Extended (MMR 2012, 174) sehr klar entschieden, dass Filtersysteme jedenfalls unter gewissen Voraussetzungen nicht mit Unionsgrundrechten vereinbar sind. Dieser nur eingeschränkten unionsgrundrechtlichen Zulässigkeit von Uploadfiltern muss durch unionsgrundrechtskonforme Auslegung von Art. 17 DSM-RL entsprochen werden (a.A. Spindler, der von einer Unvereinbarkeit mit Unionsgrundrechten ausgeht). D.h. Art. 17 DSM-RL ist im Lichte dieser Rechtsprechung dahingehend auszulegen, dass er

  • kein kompliziertes, kostspieliges, auf Dauer angelegtes und allein auf Kosten des Host-Providers betriebenes Informatiksystem erfordert
  • untersagt, ein Filtersystem zu etablieren, das die Ermittlung, systematische Prüfung und Verarbeitung von Nutzerprofilen erfordert
  • hinreichende Nutzerrechte und prozedurale Begleitmaßnahmen vorsieht, um ein unberechtigtes Filtern von Inhalten zu kompensieren.

 

Diese Vorgaben ergeben sich aus einer Abwägung der Grundrechte und Grundfreiheiten des Plattformbetreibers (Art. 16 GRCh) sowie der inhaltekonsumierenden und inhalteeinstellenden Nutzer (Art. 8, 11 GRCh) mit dem Schutz des Urheberrechtsinhabers, Art. 17 GRCh. Ob sich Art. 17 DSM-RL auf Grund seiner offenen Vorgaben tatsächlich in diese Richtung auslegen lässt, hängt auch und gerade von ihrer Erfüllbarkeit ab, die sicherlich des Praxisnachweises bedarf. Ob das Filtersystem die Rechte des Plattformbetreibers unverhältnismäßig beeinträchtigt, hängt wesentlich von der Komplexität und die Kostspieligkeit des geforderten Filtersystems ab. Hier spricht zumindest die Kleinstplattformklausel für eine Angemessenheit der Regelung. Berücksichtigen müssen wird man auch den technischen Fortschritt sowohl der Plattformen selbst als auch der Filtersysteme. Content-ID wurde z.B. 2007 eingeführt, war also im Zeitpunkt der zitierten EuGH-Rechtsprechung im Jahr 2011 bzw. 2012 erst vier bzw. fünf Jahre alt. Komplexität und Kosten der Entwicklung bzw. Beschaffung derartiger Programme dürften seither abgenommen haben. Prüfen müsste man dies freilich anhand konkreter Zahlen der am Markt verfügbaren Programme. Der EuGH hat aber letztlich in der Rs. UPC Telekabel (MMR 2014, 397 m. Anm. Roth) ohnehin statuiert, dass sich die Verhältnismäßigkeit einer dem Plattformbetreiber abverlangten Maßnahme vor allem daraus ableitet, dass er die konkrete Maßnahme zur Verhinderung von Rechtsverletzungen wählen kann. Ihm darf nicht eine einzige undifferenziert für alle Plattformbetreiber geltende Maßnahme vorgeschrieben werden. Diesem Erfordernis entspricht auch Art. 17 DSM-RL.

Während die Vereinbarkeit von Art. 17 DSM-RL mit Art. 16 GRCh trotz allem mit einem verbleibenden Fragezeichen behaftet ist, dürfte demgegenüber die Vorgabe ausreichender Nutzerrechte sehr klar aus der Rechtsprechung des EuGH erkennbar sein. Dies ergibt sich zusätzlich zu Scarlet Extended und Sabam/Netlog (jew. a.a.O.) explizit auch aus der UPC Telekabel-Entscheidung des EuGH (a.a.O., Rdnr. 63). Die Grundrechtsbeeinträchtigung, die die Nutzer durch ein unberechtigtes Filtern von Inhalten erleiden (Umkehr der Aktionslast; hierzu generell: Specht, Diktat der Technik, 2019; unmittelbar zu Uploadfiltern: Becker, ZUM 2019, 636 ff. und Gerpott, MMR 2019, 420), kann einzig durch Ausgestaltung subjektiver Nutzerrechte und prozeduraler Begleitmaßnahmen kompensiert werden (Kompensation durch Verfahren).

Zusätzlich zu diesen subjektiven Nutzerbefugnissen benötigen wir einen Dreiklang aus einer Schlichtungsstelle für Streitigkeiten über die (Un-)Zulässigkeit von gefilterten Inhalten, der Ausweitung der Verbandsklagebefugnis bei systematischer Abbedingung von Schrankenbestimmungen entsprechend §§ 2a, 3a UKlaG sowie Transparenzpflichten der Plattformen ähnlich denen im NetzDG. Auf Grund ihrer Grundrechtssensibilität empfiehlt sich die Übertragung von Filterpflichten auf andere Rechtsgebiete nicht.

Anders liegt es mit der Gestaltung des Plattformdesigns und des Defaults. Art. 25 DS-GVO enthält die Vorgabe von Data Protection by Design and Default und fordert damit die Berücksichtigung datenschutzrechtlicher Vorgaben bereits im technischen Gestaltungsprozess sowie die Voreinstellung eines datenschutzfreundlichen Standards. Dies soll dem Bias vorbeugen, dass wir Voreinstellungen nur selten ändern. Art. 25 DS-GVO sollte auch Hersteller adressieren, mit dieser Änderungsnotwendigkeit lässt er sich aber als Vorbildregelung für andere Rechtsgebiete begreifen (z.B. den Jugendschutz). Plattformdesign-Regelungen sollten außerdem leicht erkennbare Buttons zur Meldung von Rechtsverstößen o.Ä. vorsehen. Art. 28b AVMD-RL fordert ebendies und zwar u.a. eine Funktion für Nutzer, die nutzergenerierte Videos hochladen, mit der sie erklären können, ob diese Videos audiovisuelle kommerzielle Kommunikation enthalten.

Gemeinsame Leitlinien der Plattformbetreiberhaftung lassen sich aber nicht nur rückblickend auf die Rechtsentwicklung der vergangenen Jahre erkennen, aufbauend auf diesen gemeinsamen Leitlinien de lege lata scheint auch die Formulierung erwünschter Leitlinien zur Plattformbetreiberhaftung de lege ferenda möglich. Diese erwünschten Leitlinien ließen sich in den Haftungsprivilegien der E-Commerce-Richtlinie spiegeln, deren Überarbeitungsnotwendigkeit für eine grundlegende Diskussion über das Ob und Wie einer unionsgrundrechtskonformen Plattformbetreiberhaftung genutzt werden sollte.

 

Bonn, im März 2020

 

Prof. Dr. Louisa Specht-Riemenschneider

ist Inhaberin des Lehrstuhls für Bürgerliches Recht, Informations- und Datenrecht an der Rheinischen Friedrich-Wilhelms-Universität Bonn, Direktorin des Instituts für Handels- und Wirtschaftsrecht und Leiterin der Forschungsstelle für Rechtsfragen neuer Technologien sowie Datenrecht (ForTech) sowie Mitherausgeberin der MMR.