beck-aktuell: User Rights ist die erste zertifizierte Streitbeilegungsstelle nach Art. 21 DSA. Was genau bedeutet das?
Eder: Der DSA sieht für Nutzerinnen und Nutzer digitaler Plattformen neben den internen Beschwerdemanagementsystemen und den ordentlichen Gerichten noch eine weitere, zwischengeschaltete Rechtsschutzmöglichkeit vor: sogenannte außergerichtliche Streitbeilegungsstellen. Das sind unabhängige Stellen, die sich bei der Bundesnetzagentur zertifizieren lassen können und bei denen Nutzerinnen und Nutzer sich über Moderationsentscheidungen von Plattformen – zum Beispiel das Löschen von Kommentaren – beschweren können.
Die Schlichtungsstelle nimmt dann eine rechtliche Prüfung vor und entscheidet, ob die Moderationsentscheidung gerechtfertigt war. Dabei sind die Plattformen gesetzlich verpflichtet, nach Treu und Glauben mit diesen Stellen zusammenzuarbeiten. Das Verfahren ist für die Beschwerdeführer kostenlos.
"Die Stellen sind vergleichbar mit Schiedsgerichten"
beck-aktuell: Es handelt sich also um eine Art privates Gericht, bei dem eine Seite per EU-Rechtsakt zur Teilnahme verpflichtet wird. Ist das im deutschen Recht nicht systemfremd?
Eder: Auf den ersten Blick mag eine nicht-gerichtliche Streitbeilegung systemfremd erscheinen. Auf den zweiten Blick lässt sich die Möglichkeit, Entscheidungen von Plattformen durch Streitbeilegungsstellen rechtlich überprüfen zu lassen, jedoch als Reaktion auf eine Lücke oder ein Versagen im bestehenden System verstehen. Bei der Content-Moderation auf Social-Media-Plattformen hat der Europäische Gesetzgeber ein Rechtsschutzbedürfnis gesehen, das von den Gerichten nicht ohne weiteres bedient werden kann. Mit solchen Beschwerden vor Gericht zu ziehen – was die Nutzerinnen und Nutzern übrigens während des gesamten Streitbeilegungsverfahrens machen können – ist häufig nicht so attraktiv, da aufwändig oder kostspielig. Oder die Verfahren dauern zu lange.
Kneer: Letztlich sind die Stellen funktional vergleichbar mit Schiedsgerichten oder Schlichtungsstellen. Der DSA nennt es zwar Streitbeilegungsstelle, aber der Gedanke ist ähnlich – jedoch mit der Neuerung, dass die Zertifizierung europaweit gilt und Grundrechte zu beachten sind. Allerdings hat der Gesetzgeber noch sehr vieles offengelassen. Wie das Verfahren zu gestalten ist, dazu steht im Gesetz oder in den Zertifizierungsunterlagen zum Beispiel kaum etwas. Deshalb orientieren wir uns sehr an typischen Schlichtungsverfahren, wie sie das deutsche und europäische Recht auch kennen.
Eder: Für uns war das Fehlen detaillierter Vorgaben auch reizvoll: Wir waren die Ersten, die einen neuen Mechanismus entworfen haben – noch bevor klar war, wie ein solcher Mechanismus in der Praxis überhaupt aussehen könnte. Uns war es wichtig, zu zeigen, dass es funktionieren kann, und sinnvolle Standards zu setzen. Wir sind die einzige Schlichtungsstelle, die in Deutschland bisher zertifiziert wurde. Da hat sich vieles auch erst im Prozess entwickelt.
"Als wir angefangen haben, gab es außer dem Gesetzestext noch gar nichts"
beck-aktuell: Wie finanziert sich Ihre Arbeit?
Kneer: Wir verlangen Gebühren von den Plattformen, unabhängig vom Ausgang des Verfahrens. Mit den Gebühren dürfen wir keine Gewinne machen, sie müssen aber kostendeckend sein, so dass letztendlich ein tragfähiges Geschäftsmodell entsteht. Die Gebühren und die entsprechende Kalkulation waren auch ein sehr wichtiger Teil der Zertifizierung. Das war knifflig, denn wir mussten eine Kostenordnung vorlegen, obwohl wir kaum abschätzen konnten, wie viele Schlichtungsverfahren reinkommen werden oder wie kompliziert diese typischerweise sind.
Eder: Laut Gesetz könnten wir auch eine minimale Schutzgebühr von Nutzern und Nutzerinnen verlangen. Das halten wir aber nicht für sinnvoll, weil wir keine weitere Hürde für sie einbauen möchten.
beck-aktuell: User Rights wurde im August 2024 zertifiziert. Wie lief der Zertifizierungsprozess? Was waren die Kriterien?
Kneer: Wir haben so früh angefangen, dass es außer dem Gesetzestext noch gar nichts gab – es war auch noch gar nicht klar, dass die Bundesnetzagentur – genauer der Digital Services Coordinator – die Zertifizierung übernehmen würde. Es begann also alles damit, dass wir viele E-Mails geschrieben und Fragen gestellt haben. Im Austausch mit den verschiedenen Stakeholdern ist dann nach und nach ein Leitfaden für die Zertifizierung entstanden.
Die Bundesnetzagentur hat dabei gemeinsam mit den anderen DSCs (Digital Services Coordinator) in der EU vielfältige Voraussetzungen für die Zertifizierung entwickelt, viele davon stehen im Gesetz, einige aber auch nicht. Die Vorbereitung war extrem aufwendig. Die Prüfung war sehr streng, ging dann aber verhältnismäßig schnell. Am Ende haben wir deutlich über 40 Dokumente eingereicht, von Lebensläufen und eidesstattlichen Versicherungen über Verfahrens- und Kostenordnung bis hin zu Ausbildungskonzepten für unsere Schlichter. Auch jetzt stehen wir im ständigen Austausch mit der Bundesnetzagentur als Aufsichtsgremium. Ihr gegenüber haben wir umfassende Berichtspflichten.
"Die Verfahren sind teilweise automatisiert"
beck-aktuell: Wenn eine Beschwerde bei Ihnen landet, heißt das, es gab vorher schon eine Moderation auf der Plattform, richtig? Welche Arten von Moderationen sind da umfasst?
Kneer: Genauso ist es. Wir überprüfen nur die Moderationsentscheidung der Plattform. Da gibt es zwei Arten: Das eine ist die aktive Inhaltsmoderation, also wenn die Plattform einen Beitrag löscht oder den Account einer Person beschränkt. Die andere Konstellation, die wir prüfen, ist, wenn eine Person einen mutmaßlich rechtswidrigen Beitrag oder Account meldet, dann aber von der Plattform die Rückmeldung bekommt, dass nichts unternommen wird, der Beitrag also zum Beispiel nicht entfernt wird.
beck-aktuell: Welchen Weg nimmt die Beschwerde dann bei User Rights? Ist das Verfahren automatisiert?
Kneer: Ein Teil des Verfahrens ist schon automatisiert, es gibt zum Beispiel eine Missbrauchsprüfung mit technologischer Unterstützung. Das Verfahren kann man sich in etwa so vorstellen wie ein Gerichtsverfahren, nur eben komplett digital. Zuerst gibt es eine recht umfassende Vorprüfung, bei der wir unter anderem die Zuständigkeit prüfen, den Sachverhalt erfassen, Gehör gewähren und dem Fall schließlich eine Komplexitätsstufe zuordnen. Dann geht die Beschwerde weiter zu einem Schlichter oder einer Schlichterin, die – ebenfalls mit technischer Unterstützung – die Entscheidung treffen.
Diese Entscheidung wird dann an die Beteiligten versandt und wir fordern die Plattform zur Mitteilung auf, ob sie die Entscheidung umsetzen wird. Die Plattformen sind nicht unmittelbar zur Umsetzung verpflichtet, müssen jedoch begründen, wenn eine Entscheidung nicht umgesetzt wird.
"Wir mussten die Zusammenarbeit im Realbetrieb auf die Beine stellen"
beck-aktuell: Einer der Kritikpunkte am DSA ist, dass die Plattformen sich nicht oder nur sehr widerwillig an die Pflichten hielten. Ist das auch Ihre Erfahrung?
Kneer: Die Zusammenarbeit war am Anfang tatsächlich nicht ganz einfach. Wir waren die ersten in Europa, die überhaupt versucht haben, Kontakt mit den Plattformen aufzunehmen. Oft gab es gar keine Möglichkeit, die zuständigen Personen zu erreichen, und auch keine Bereitschaft, mit uns zu sprechen, solange wir noch nicht zertifiziert waren.
Allerdings war es in unserem Fall so, dass wir mit der Zertifizierung unsere Arbeit sofort aufnehmen mussten, es gab keine Übergangsfrist oder ähnliches. Das heißt, wir mussten die Zusammenarbeit im Realbetrieb auf die Beine stellen. Das war und bleibt komplex. Vor allem mussten wir diese Unternehmen, die zu den wertvollsten der Welt gehören, auch erst einmal davon überzeugen, dass wir wissen, was wir tun: Dass wir einen ordentlichen Prozess ausgearbeitet haben, der mit Blick auf die gesetzlichen Vorgaben auch fair gegenüber den Online-Plattformen ist.
beck-aktuell: Erst kürzlich haben Meta und Co. in den USA angekündigt, die Moderation auf den Plattformen stark herunterzufahren oder ganz einzustellen. Hat das Auswirkungen auf ihre Arbeit?
Eder: Da muss man zwischen EU und USA differenzieren: Viele der von Zuckerberg angekündigten Änderungen sind eine Reaktion auf die veränderten Bedingungen in den USA. In der EU treffen die Plattformen jedoch auf andere Erwartungen. Die Moderation von Inhalten ist hier rechtlich gefordert, wird von Unternehmen, die auf Plattformen Werbung schalten, erwartet und ist von Nutzerinnen und Nutzern häufig erwünscht. Eine Plattform ohne Inhaltsmoderation ist weder für Nutzerinnen und Nutzer attraktiv noch wirtschaftlich tragfähig.
Trotzdem darf man nicht vergessen, dass diese Unternehmen aus den USA geführt werden. Änderungen in der Hate-Speech-Policy gelten erstmal global. Zwar müssen auch diese Unternehmen sich regional an das Gesetz halten, aber es gibt durchaus den Wunsch auf Seiten der Online-Plattformen, die Vorgaben weltweit möglichst einheitlich zu gestalten. Insofern betrifft es uns schon, aber wir machen Schritt für Schritt weiter. Wir haben den klaren gesetzlichen Rahmen auf unserer Seite, wir sehen viel guten Willen von den Plattformen, mit uns zusammenzuarbeiten. Insofern bin ich optimistisch, dass es weitergeht.
beck-aktuell: Was planen Sie für die Zukunft? Was wünschen Sie sich?
Kneer: Bisher kümmern wir uns nur um TikTok, Instagram und LinkedIn. In den kommenden 18 Monaten werden wir die Beschwerdeverfahren auf alle Social-Media-Plattformen ausweiten. Außerdem haben wir den Wunsch, die Zertifizierung auf weitere Amtssprachen der EU zu erweitern. Die Vorstellung, dass es uns inzwischen gelungen ist, die ersten paar hundert Entscheidungen zu treffen, von denen ein großer Teil von den Plattformen umgesetzt wurde, ist wirklich faszinierend. Es ist toll, zu sehen, dass es funktioniert. Nun wollen wir noch bekannter werden. Denn wir glauben: Wenn mehr Menschen von dieser Möglichkeit wissen und davon Gebrauch machen, können Rechte im Internet besser geschützt werden.
beck-aktuell: Ich danke Ihnen für das Gespräch!
Die Fragen stellte Denise Dahmen.