CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

The Platform Regulation and DSA Conference

Marc André Bovermann ist Doktorand und wis-senschaftlicher Mitarbeiter am Max-Planck-Institut zur Erforschung von Kriminalität, Sicher-heit und Recht in Freiburg.

MMR-Aktuell 2024, 02014   Unmittelbar vor dem vollständigen Inkrafttreten des DSA am 17.2.2024 veranstaltete das an der Universität von Amsterdam (UvA) ansässige und mit dem Instituut voor Informatierecht verbundene DSA Observatory eine Konferenz über die Themen, die den DSA prägen. Die Tagung fand vom 15.2. bis 16.2.2024 an der Universität Amsterdam statt. Die Konferenz wurde in zwei Teile aufgespalten: Am Vormittag und frühen Nachmittag des ersten Konferenztags hatten Forscher und Praktiker aus aller Welt die Gelegenheit 12-minütige Vorträge mit maximal vier Personen pro Panel vor interessiertem Publikum zu halten. Dabei fanden immer drei Panel zeitgleich statt, was für kleinere Gruppen bei dieser gut besuchten (und vollkommen ausgebuchten) Veranstaltung sorgte. Am späteren Nachmittag und am zweiten Tag fanden die Keynotes und Paneldiskussionen statt.

Thematisch war die Konferenz stark fokussiert auf den DSA – und in dieser Hinsicht jedoch breit aufgestellt. Die dominanten Themen der Tagung waren die Transparenzvorschriften des DSA, dessen Risikobewertungs/-minderungspflichten und Content Moderation.

I. Erster Tag

Der erste Tag der Konferenz startete mit den Grußworten eines Organisators, van Hoboken. Schnell begannen dann die ersten Paper Sessions. Die Teilnehmer konnten hier zwischen drei Themen Clustern wählen: „Challenges of realising meaningful transparency and accountability in platform governance”, “DSA’s value in offering new sources of data for platform governance research” und “The feasibility and operationalisation of the risk-based approach in the regulation of content moderation”, wobei der Verfasser sich für Letzteren entschied.

1. Erste Paper Session

Die erste Paper Session stand ganz im Zeichen der Art. 34, 35 DSA. Alle Beiträge beschäftigten sich mit der Frage, wie die vorgeschriebene Systemrisikobewertung in Art. 34 DSA durchgeführt und iRv Art. 37 DSA durch Audits überprüft werden können.

Sekwenz brachte den Anwesenden dabei die delegierte Verordnung zur Durchführung der Audits näher, insbesondere beleuchtete Sie die Möglichkeiten und Fallstricke einer Überprüfung anhand von sog. Sampling, bei dem repräsentative Datensätze ausgewählt werden.

Ein Vertreter von Del Campo machte darauf aufmerksam, dass schon die Schnelligkeit, Masse und Permanenz der Äußerungen auf Online-Plattformen Risken für die Gesellschaft bärge. Dabei hob er vor allem hervor, dass auch die Aggregation von grundsätzlich rechtmäßigen Aussagen (lawful but awful) schutzgutbeeinträchtigend wirken könnte.

Zuletzt betrachteten Kaarlep, Jang und Sengupta des Softwareentwicklers Tremau wie die Audits des Risiko Managements von VLOPs praktisch funktionieren könnten. Insbesondere schlugen sie vor, dass die Unternehmen den ISO 30001 für Risiko Management auch iRd DSA verwenden könnten, da er eine notwendige Baseline enthalte.

2. Zweite Paper Session

Hier hatten die Teilnehmer die Wahl zwischen „Challenges of realising meaningful transparency and accountability in platform governance”, “Impact of the DSA beyond Europe” und „Relation between the DSA and fundamental rights/constitutional settings”. Der Verfasser entschied sich wieder für letzteren Themenkomplex. Auch in diesem Panel spielte das Systemrisiko der VLOPs eine zentrale Rolle.

Leider entfiel jedoch die erste Präsentation von Palumbo, die die Gemengelage zwischen Art. 35 DSA, den Plattform AGB und dem Gesetzesvorbehalt näher beleuchten sollte.

Umso mehr Zeit blieb jedoch für die restlichen Vorträge. So konnte De Gregorio den risikobasierten Ansatz des DSA und insbesondere die Art. 34, 35 DSA auch in weiteren EU-Rechtsakten verorten und damit die Rolle und Bedeutung dieser Vorgehensweise erklären.

Nachfolgend klärte Mauritz die - auch vom Publikum kontrovers diskutierte - Frage ob die Änderung von „… information not in compliance with … the law of a member state“ zu „any member state“ bei der Definition von illegalen Inhalten nach Art. 3 lit. h DSA dazu führt, dass alle Sprechaktsnormen der europäischen Mitgliedstaaten gleichzeitig Anwendung finden. Mauritz legte durch Auslegung und Vergleich mit der typischen Struktur von Kollisionsnormen dar, dass dies nicht der Fall ist.

3. Dritte Paper Session

Die dritte Sitzung stellte die Anwesenden wiederum vor die Wahl zwischen „Challenges of realising meaningful transparency and accountability in platform governance” (hierfür entschied sich der Verfasser), “Impact of the DSA beyond Europe” und „Enforcement authorities’ positioning in the broader landscape”.

Die Sitzung begann mit Bielova, die als Informatikerin die Rolle von Tag Managern für Webseiten näher darlegte. Dabei stießen die Forscher auf den Umstand, dass der Google Tag Manager klassische Dark Patterns, wie zB bad hierarchies, nutzt. Sie stellte den anwesenden Juristen daher die nicht einfach zu beantwortende Frage, ob diese Gestaltung nach Art. 25 DSA verboten sei und wenn ja, ob auch das Publikum einer Webseite, die Google Tag Manager nutzt, von dem Dark Pattern betroffen sei.

Sodann erläuterte Golunova, inwiefern der DSA die algorithmische Content Moderation reguliert. Sie kam zu dem Schluss, dass der DSA die Besonderheiten der algorithmischen Content Moderation gegenüber der „klassischen“ personenbasierten Content Moderation nicht hinreichend berücksichtigt und daher hinter seinen Möglichkeiten zurückbleibe, was auch Art. 35 DSA nicht ändern könne.

Zuletzt präsentierte Glowacka die Forschungsergebnisse einer Fallstudie des Panoptykon Instituts. Dieses führte Interviews mit einer traumatisierten Person über die Inhalte ihres Facebook Feeds, dass ihr immer wieder verstörende, traumabezogene Inhalte anzeigte. Dabei mussten die Forscher feststellen, dass die Anzeige dieser Inhalte auch nicht über die Nutzung des „Nicht interessiert“-Knopfs an den jeweiligen Inhalten gesteuert werden konnte.

4. Vierte Paper Session

In der letzten Paper Session standen die Teilnehmer vor der Wahl zwischen „Challenges of realising meaningful transparency and accountability in platform governance“, „Access to justice issues for online harms” oder “Effective approaches to the problem of disinformation”, das hier beleuchtet wird.

Hier präsentierte Lamchek die Herausforderungen, die sich bei der Bekämpfung von Desinformationen in Australien stellen. Er stellte insbesondere heraus, dass Desinformationen nicht illegal sind und daher auch nicht vor Gericht als Rechtsverstoß geltend gemacht werden können. Die Plattformen finden sich daher in einer gerichtsersetzenden Position wieder. Er appellierte daran, dass man sich zurück auf die gerichtliche Durchsetzung als default besinnen sollte.

Danach präsentierten Akhurst und Geneletti von Tremau einen Beitrag zu Art. 36 DSA. Dabei versuchten sie zu ergründen, was eine Krise iSd Art. 36 DSA ausmache und ob Art. 36 DSA tatsächlich zu eingriffsintensiveren Maßnahmen gegenüber Art. 35 DSA ermächtige. Dies lehnten die Vortragenden ab: Art. 36 DSA zeichne sich wohl eher durch eine schnellere und fokussierte Implementierung von Maßnahmen aus, statt durch eine vertiefte Eingriffsintensität.

Als nächstes präsentierte Husovec das, was er als „die red line des DAS“ bezeichnet. Er legte pragmatisch dar, dass die Kommission keine Normsetzungsbefugnis hat und daher keine Regeln für die Content Moderation aufstellen dürfe. Viel mehr bleibt die Kommission darauf verwiesen sich auf das Design der Dienste zu fokussieren. Es liege stattdessen an der Legislative zu bestimmen, was illegale Inhalte sind. Diese These wurde unter den Teilnehmern heiß diskutiert. Letztlich schuldet Husovec jedenfalls eine Erklärung, wie seine These mit dem durch den DSA an die Kommision erteilten Mandat zur Bekämpfung von Desinformation vereinbar sein soll – ist der DSA also primärrechtswidrig?

Zuletzt präsentierte Gsenger eine kommunikationswissenschaftliche Perspektive des Kampfes gegen Desinformation und wies u.a. auf die bestehenden Definitionsschwierigkeiten hin. Letztlich bedürfe es eines evidenz-basierten Ansatzes, der auf die Auswirkungen von Desinformationen abstellt. Ebenso sei es ratsam mit Labeln, statt mit Löschungen zu arbeiten, da diese zu spät stattfinden würden und die Situation nicht entschärfen.

5. Opening Plenary Session

Zum Ende des ersten Tages der Konferenz kamen alle Teilnehmenden in „de Brug“ (niederländisch: die Brücke) der Universität zusammen. Dort präsentierten ausgewählte Forscher ihre Ergebnisse.

Den Anfang machte Busch. Er zeigte die Parallelen zwischen dem DSA und der Regulierung von Infrastruktur auf. Der DSA folgt einer Zwiebelstruktur und enthält Regeln für den Rechtsanwender, wie aber auch für die Struktur der Plattformen selbst. Die Strukturanforderungen entsprechen dabei einer Infrastrukturregulierung, die sich auf eine Meta-Moderation beschränke.

Goanta präsentierte danach die bisher vorhandenen Daten in der DSA Transparency Database der Kommission und welche Schlüsse sich aus ihnen ziehen lassen. Es handelt sich um über 4 Mrd. Einträge. Interessant: X hat bisher über keinerlei algorithmischen Moderationsentscheidungen berichtet, was eine rein händische Moderation der Plattform indiziert.

Griffin berichtete als Vorletzte an diesem Tag darüber, inwiefern der DSA das Konzept von „Market Justice“ verfolgt. Die Sichtbarkeit von Inhalten auf den Plattformen funktioniere nach einer Marktlogik, die bekannte intersektionale Ungleichheiten perpetuiere. Sie kommt dabei zu dem Ergebnis, dass der DSA hinter seinen Möglichkeiten zurückbleibt, da er die Marktlogik nicht ausreichend bekämpft.

Zuletzt zeigte Eder eine Möglichkeit zur Auslegung der Art. 34 und 35 DSA auf. Es sei zwischen Content Moderation und Conduct Moderation zu unterscheiden. Gleichzeitig zeigte er auf, dass es wohl schwierig sei die Grundrechte zur Auslegung heranzuziehen und so eine Horizontalwirkung zu schaffen. Er verwies darauf, dass sich aus diesem Grund konkrete Regeln verbieten und es stattdessen um die Auflösung des „multistakeholderism“ geht. Daher bietet sich ein pluralistisch besetzter Medienrat an, der dafür sorgt, dass Sprechregeln aufgestellt werden. Art. 34 und 35 DSA haben insofern nur einen prozessualen und keinen materiell-rechtlichen Charakter.

II. Zweiter Tag

Der zweite Tag begann mit einem echten Highlight. Die Direktorin für Plattformen im DG CNECT der EU-Kommission, Rita Wezenbeek hielt eine Keynote. Während es einerseits um die Einlösung politischer Versprechen und eine zu intensivierende Zusammenarbeit mit Forschung und Zivilgesellschaft ging, wurde es zum Ende der Rede konkret. Wezenbeek stellte klar, welche Rolle der Forschung zukommen solle und welche offenen Fragen sich noch stellen. Oft kam auf, dass der DSA auf die Werkzeuge des EU-Kartellrechts zurückgreife, das sich als besonders effizient herausgestellt hat und mit denen man viel Erfahrung habe.

1. Erste Panel Diskussion

Nach einer kurzen Kaffeepause begann die erste Panel Diskussion mit Keller, Penfrat, Curtin, Quintais und Gerlach. Sie stellten sich der Frage nach der Implementierung des DSA auf der EU-Ebene, weshalb es vor allem um die Regulierung von VLOPs ging. Daher war insbesondere die Rolle von Gerlach interessant, der Mitarbeiter der Wikimedia Foundation ist. Er legte dabei dar, warum das Betreiberunternehmen um Wikipedia Angst vor den neuen Pflichten als VLOP hat. Die Wikimedia Foundation betreibt nämlich fast keine Content Moderation, sondern überlässt dies einer Gruppe von Freiwilligen. Sollte die Stiftung nun aber für ein verbessertes Trust and Safety Team sorgen müssen (das momentan einen nur geringen Umfang hat), so steht es um die sowieso dürftig betuchte Plattform nicht gut. Der DSA hätte damit auf Wikipedia einen spiegelverkehrten Effekt: Statt öffentliche Interessen stärker im Privaten zu berücksichtigen, müsste Wikipedia nun stärker private Interessen verfolgen (und zB sein Geschäftsmodell verändern).

2. Keynote

Als nächstes stand ein Lightning Talks Format auf dem Programm. Hier mussten fünf Forscher ihre Ergebnisse so schnell wie möglich präsentieren.

Den Anfang machte Edelson, die anhand von Daten, die sie und ihr Team über CrowdTangle von Facebook erhoben haben, die Verteilung von Nachrichten aus dem US-amerikanischen, ukrainischen und russischen Raum auf der Plattform analysierte. Dabei zeichnete sich ab, dass nur die oberen 0,1% der Beiträge den Großteil der Aufmerksamkeit erhielt. Die Halbwertszeit der Beiträge betrug bei diesen Beiträgen zwölf bis dreizehn Stunden, während sie beim Rest der Beiträge lediglich fünf bis sechs Stunden betrug. Eine Löschung fand im Schnitt immer nach dem Ablauf der Halbwertszeit, namentlich nach 21 bis 25 Stunden, statt.

Danach präsentiere Dergacheva „one day in Content Moderation“. Hierzu erhob ihr Team alle Daten an einem einzigen Tag aus der Transparency Database der Kommission. Hierbei fiel auf, dass Facebook die meisten Berichte an einem Tag eingereicht hat, X mit circa 500 sehr wenige und LinkedIn mit 240 die geringste Quote zu bieten hatte.

Appelman präsentierte ihren Ansatz zur Justizgewährleistung. Da die potenziellen Schäden der Content Moderation intersektional ungleich verteilt sind, bedürfe es auch eines intersektionalen Ansatzes zur Auflösung des Problems. Hierfür stellte sie klar, dass ein juristischer Ansatz allein nicht ausreichen kann.

Hiernach präsentierte Tramble in Vertretung für de Vreese einen Überblick darüber, welcher Schritte es bedarf, damit der DSA funktionieren kann. Sie betonte hier vor allem, dass es gemeinsame Standards braucht, zB im Gewand von Verhaltenskodizes. Ebenso bräuchte es ein Forum für Stakeholder.

In der letzten Präsentation von Goga wurde es noch einmal ganz konkret: Sie und ihr Team versuchten eine „Testwerbung“ auf YouTube gezielt an Kinder zu richten. Es gibt dabei drei Arten gezielter Werbung: Kontextbasierte, wiederholte und personalisierte Werbung. Für die letzter Variante muss das Verhalten des Nutzers einerseits verfolgt werden und zusätzlich ein Nutzerprofil erstellt werden. Dies ist für Minderjährige nach Art. 28 Abs. 2 DSA verboten. Jedoch kann auf YouTube Werbung auch so geschaltet werden, dass die spezifischen Interessen eines Nutzers und der Kontext bei der Platzierung von Werbung berücksichtigt wird. So können Kinder sogar noch viel gezielter angesprochen werden.

3. Zweite Panel Diskussion

In der zweiten Panel Diskussion fanden sich van den Bergh, Luotrel und Evans wieder. Sie sind alle Teil unterschiedlicher Behörden in unterschiedlichen Mitgliedstaaten, die als Koordinatoren für Digitale Dienste designiert wurden. Sie diskutierten das Verhältnis ihrer Behörden zum DSA und die Vorbereitungen, die sie zu treffen haben. Im Fokus stehe dabei, dass sie die Online-Plattformen regulieren und gleichzeitig die Erstanlaufstelle für die Bürger bei Rechtsverletzungen darstellen. Dabei sieht Loutrel die Koordinatoren in einer Schanierfunktion, die die Verbindung zur Zivilgesellschaft und anderen Stakeholdern schafft. Sie betonten immer wieder wie wichtig die Kooperation von Koordinatoren, Forschung und Zivilgesellschaft für ein Gelingen des DSA sein wird. Ebenso wurde auch noch einmal auf das Europäische Gremium für Digitale Dienste hingewiesen, das sich aus den Koordinatoren der Mitgliedstaaten zusammensetzt. Effektiv bestehe es auch schon vor seiner konstitutiven Sitzung am 19.2.2024, da die Koordinatoren in einem engen Austausch miteinander stünden. Sie hätten sich sogar schon mit der Kommission zum Start der Systemrisikobewertungspflichten im August 2023 besprochen.

4. Dritte Panel Diskussion

Die letzte Diskussionsrunde setzte sich zusammen aus Klonick, Woods, Bukovska und Kaye. Das Thema der Runde war „The DSA in times of crisis“. Die Diskutanten widmeten sich zuerst der Grundausrichtung des DSA und stellten fest, dass es im DSA nicht nur um Content Moderation geht, sondern auch um die Regulierung von Systemen. Hinsichtlich des Diskussionsthemas identifizieren sie sodann, dass es verschiedene Arten von Krisen gebe und sich zB die Klimakrise nur schlecht in das typische Bild einer Krise einfüge. Letztlich gehe es daher vor allem um die Herstellung eines Rahmens, der den Ausgleich zwischen kollidierenden Interessen herstellen kann. Dies führte zu der Frage, ob das Instrument der Systemrisikobewertung, das in der EU einen solchen Interessenausgleich zu schaffen vermag, auch in den USA eingeführt werden sollte. Dies sah Klonick jedoch kritisch. Jedenfalls sei die Einführung eines solchen Instruments politisch unmöglich. Dies zeige sich in einer großen Gegenbewegung zur Inhaltsregulierung, die ihre Position gerade in den sog. „Netchoice cases“ in Florida und Texas gerichtlich geltend mache und für weiter gefasste „must carry provisions“ streite. Dies könne sogar zu einem „everything goes internet“ in den beiden Bundesstaaten führen und einen direkten oder indirekten Brussels Effect aufhalten. Danach kam die Diskussion auf den Vorschlag VLOPs zu entflechten zu sprechen. Dies sahen die Diskutanten kritisch: Insbesondere bei der Abwendung von Krisen sei es nützlich, dass es nur wenige Plattformen gebe. Zuletzt warnten die Diskutanten auch vor dem DSA: Der Gesetzgeber solle einen sog. Putin-Test (oder auch Orbán-Test) durchführen, um zu erforschen, wie die Instrumente in den Händen autoritärer Herrscher missbraucht werden könnten.

III. Ende und Fazit

Den Abschluss machte Senftleben, der die zentralen Themen der Konferenz noch einmal aufgriff. Er stellte heraus, dass es zwar sehr nützlich sei auf Empirik zu bauen und Art. 40 DSA diese Entwicklung befördere. Gleichzeitig betonte er aber auch, dass die klassische dogmatische Arbeit einen ebenso großen Mehrwert hat, da es letztlich normative Fragen sind, die bestimmen, wie das Online-Ökosystem gestaltet wird. Der DSA sei insofern ein „lawyer’s paradise“. Ebenso deutete er an, dass es sich bei der Konferenz nicht um die letzte ihrer Art gehandelt haben wird.

Die Konferenz war hervorragend organisiert und hatte einen hohen Mehrwert für alle Beteiligten. Besonders der Umstand, dass die Teilnehmenden aus verschiedensten Disziplinen, Ländern und Berufen stammen, hat die Veranstaltung so bereichernd und interessant gemacht. Auch der Verfasser hat sehr viele Denkanstöße aus den Vorträgen und Gesprächen erhalten, für die er sehr dankbar ist. Vielen Dank an das DSA Observatory für die Veranstaltung der Konferenz und bis zum nächsten Mal.

Anzeigen

MMR kostenlos testen

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü