Prof. Dr. Martin Kment ist Inhaber des Lehrstuhls für Öffentliches Recht und Europarecht, Umweltrecht und Planungsrecht an der Universität Augsburg.
ZGI 2024, 149 Unlängst ging der Wahlkampf im Vorfeld der Europawahl 2024 zu Ende. Dieser förderte neben verbalen auch viele physische Entgleisungen zutage, die alarmierend sind und nicht nur auf eine starke (Über-)Empfindlichkeit gegenüber anderen politischen Ansichten hinweisen, sondern auch auf die Unfähigkeit, die eigene Sensibilität und die eigenen Emotionen in eine sachliche Debatte zu tragen. Dabei handelt es sich jedoch nur um das Symptom eines tiefer liegenden und vorher ansetzenden Problems, nämlich der algorithmisch flankierten – einige würden noch einen Schritt weiter gehen und sagen: gelenkten – Meinungsbildung im Internet. Diese ist geprägt von Phänomenen wie der Distanzierung und Anonymisierung in den „sozialen Medien“, der Personalisierung der präsentierten Inhalte und schließlich der Isolierung der Partizipanten in Filterblasen. Die Nutzer verharren in gedanklichen Räumen intellektueller Abschottung, die durch die algorithmusbasierte Annahme bestimmter Interessenschwerpunkte der User anhand ihrer vergangenen Online-Aktivität und die selektive, priorisierte Informationsvermittlung auf Grundlage dieser Annahme entstehen. Sie befinden sich damit geistig buchstäblich allein in einer Enklave, die nur Sichtweisen beinhaltet, die sich aufgrund eines algorithmischen Wahrscheinlichkeitsurteils mit ihrem Standpunkt decken, wohingegen sie Gegenansichten nicht zu Gesicht bekommen. Vor diesem Hintergrund tritt eine Verzerrung des vermittelten Informationsspektrums und eine Enthemmung der geführten Kommunikation ein. Hate Speech, Trolling und Deepfakes durchziehen den virtuellen Raum. Beim Surfen im Netz zum reinen Privatvergnügen mag dies geringfügig stören. Schon etwas anders beurteilt sich die Lage dann, wenn man auf der Suche nach seriöser, objektiver, richtiger Information und zivilisierter Konversation diese in den Weiten des Internets nicht findet, weil man Wahrheit von Lüge nicht mehr unterscheiden kann oder die Scharmützel in den Kommentarspalten ein inhaltliches Niveau erreichen, das dem eigenen Anstandsgefühl widerspricht. Besonders prekäre Züge nimmt das Geschehen dort an, wo der Austausch um Themen von öffentlichem Interesse kreist oder die mediale Fälschung sich auf einen Gegenstand von politischer Tragweite bezieht. Dann kann es schnell passieren, dass die Blasenbildung auch in der demokratischen Willensbildung einsetzt und sich letztlich auf fatale Weise im Wahlergebnis niederschlägt – Amerika lässt grüßen. Anhalten oder gar umkehren lässt sich die Entwicklung an sich, diese Algorithmisierung der sozialen, informativ-kommunikativen Interaktion kaum. Für eine Rückkehr in die analoge Welt zu plädieren, erscheint daher weder umsetzbar noch
zielführend. Stattdessen gilt es, die Zügellosigkeit im virtuellen Raum einzufangen und die dort umtriebigen Algorithmen zu bändigen – etwa unter Ausnutzung der ihnen eigenen Dynamik und Attraktivität.
Dass dies gelingen kann bzw. nicht von vornherein zum Scheitern verurteilt ist, zeigt das kürzlich veranstaltete Festival für die digitale Gesellschaft „re:publica 2024“. Hier haben das ZDF und internationale Partner unter dem diesjährigen Motto „Who cares?“ Prototypen ihres Projekts „Public Spaces Incubator“ vorgestellt. Die gemeinsame Initiative will Lösungen entwickeln, um Websites, Apps und andere digitale Plattformen besser für den öffentlichen Dialog nutzbar zu machen. Durch die Förderung offener und vielfältiger Online-Gespräche wollen die Partner eine entscheidende Rolle dabei spielen, konstruktive öffentliche, für die Demokratie unerlässliche Debatten anzuregen. Mehr als hundert Prototypen wurden im Laufe des vergangenen Jahres entwickelt und getestet, von denen drei nun auf der Veranstaltung präsentiert wurden: Mit dem „Comments Slider“ können sich Menschen, die keinen Kommentar schreiben möchten, über einen verschiebbaren Regler auf einem Meinungsspektrum zu einer bestimmten Frage nuanciert, nicht nur in Form der binären Optionen ja/nein oder Like/Dislike positionieren, um Gemeinsamkeiten auch über verschiedene Meinungen hinweg zu entdecken. Beim „Public Square View“ werden Inhalte als Livestream ausgestrahlt, in dessen Verlauf die User mit Emojis reagieren und an Blitzumfragen teilnehmen können, bevor sie in einem Chatroom die Möglichkeit erhalten, die einzelnen Szenen des Streams zu kommentieren. Auf diese Weise wird die Beteiligung am Diskurs niederschwelliger, einfacher und lebendiger und das Bedürfnis des schlichten „Zusammenseins“ in den Online-Foren, das viele Leute treibt, befriedigt. „Representing Perspectives“ zeigt in einem Gesprächsraum, welche Rolle man beim Schreiben von Kommentaren einnimmt. Die Rollen variieren je nach Thema und werden individuell festgelegt, sodass die Facetten unterschiedlicher Sichtweisen verdeutlicht und unterrepräsentierte Perspektiven stärker betont werden können. Die Arbeit an diesen und anderen Prototypen wird im Laufe dieses Jahres fortgesetzt und finalisiert. Ein praktischer Einsatz ist für 2025 geplant. Im Endeffekt werden algorithmische Anwendungen also nicht aus dem digitalen Repertoire der Dienstanbieter verbannt, sondern in einer Art und Weise umgestaltet, die ihren Vorzügen Rechnung trägt, aber gleichzeitig Risiken für das Diskursklima entschärft.
Hier sollte nun die Legislative hellhörig werden. Die angemessene und effektive rechtliche Reaktion auf den (mehr oder weniger) sozialen Umgang miteinander im Digitalen treibt sie schon seit Längerem um. Das Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz – NetzDG) etwa zielt darauf ab, Hasskriminalität, strafbare Falschnachrichten und andere strafbare Inhalte auf den Plattformen sozialer Netzwerke durch verbindliche Standards für ein wirksames und transparentes Beschwerdemanagement zu bekämpfen. Die Befürchtungen von „Overblocking“ und „Chilling Effects“ haben sich seit dessen Inkrafttreten im Jahr 2017 und den daraufhin vorgenommenen Novellierungen nicht bewahrheitet. Gleichwohl sind auch Agitation und Manipulation im Internet nicht verschwunden, sondern passen sich dem technischen Fortschritt an. Auf europäischer Ebene wurden daher in der KI-Verordnung zuletzt bestimmte, untragbar kritische KI-Systeme ausnahmslos verboten (etwa solche, „die Techniken der unterschwelligen Beeinflussung außerhalb des Bewusstseins einer Person einsetz[en], um das Verhalten einer Person in einer Weise wesentlich zu beeinflussen, die dieser Person oder einer anderen Person einen physischen oder psychischen Schaden zufügt oder zufügen kann“, oder die sog. Social Scoring betreiben). Das gleiche Schicksal soll entsprechend dem risikobasierten Ansatz auch als Hochrisiko-Systeme eingestufte Programme treffen. Dazu zählen KI-Systeme im Zusammenhang mit der biometrischen Identifizierung und Kategorisierung natürlicher Personen, der Verwaltung und dem Betrieb kritischer Infrastrukturen, der allgemeinen und beruflichen Bildung, der Beschäftigung, dem Personalmanagement und dem Zugang zur Selbstständigkeit, der Zugänglichkeit und Inanspruchnahme grundlegender privater und öffentlicher Dienste und Leistungen, der Strafverfolgung, Migration, Asyl und Grenzkontrollen sowie der Rechtspflege und demokratischen Prozessen. Für generative KI-Systeme, die audio-visuelle Deepfakes erzeugen („Bild-, Ton- oder Videoinhalte […], die wirklichen Personen, Gegenständen, Orten oder anderen Einrichtungen oder Ereignissen merklich ähneln und einer Person fälschlicherweise als echt oder wahrhaftig erscheinen würden“), gelten besondere Transparenzanforderungen. Intelligente Dialogsysteme wie Chatbots müssen so konzipiert und entwickelt werden, dass dem Anwender die Kommunikation mit einem artifiziellen Gesprächspartner mitgeteilt wird, außer dies ist offensichtlich. Simpel algorithmische oder gar künstlich intelligente Praktiken in sozialen Netzwerken haben also bereits eine gewisse normative Aufmerksamkeit erfahren. Diese wird ihrem Risikopotenzial allerdings noch nicht vollständig gerecht. Der Gesetzgeber ist daher aufgerufen, weitere Schritte in Richtung einer „Sozialisierung“ der Netzwerke zu unternehmen. Dabei gilt es zu beachten, dass allein Verbote algorithmischer Praktiken und Sanktionen unredlichen Nutzerverhaltens keine nachhaltige Wende beim digitalen Dialog einleiten werden. Im Übrigen ist es angesichts des rasanten technischen Fortschritts auch nur schwer möglich, langfristige Ansatzpunkte für Repressionen zu finden. Als gangbarer Weg tut sich indes die legislative Fokussierung der neuen, algorithmisch betriebenen Diversifikation in den neuen Medien auf. Projekte wie „Public Spaces Incubator“ sollten gefördert werden und ihre Ergebnisse, sofern erfolgreich, Einzug in die rechtliche Regulierungsarchitektur finden. Man verschwendet dadurch nicht wertvolle Ressourcen bei dem recht aussichtslosen Unterfangen, einen Brand zu löschen, der an vielen Herden schwelt und immer wieder neu auflodert, sondern bekämpft stattdessen „Feuer mit Feuer“ – algorithmisch ausgelöste, intellektuelle Blasenbildung und Hate Speech mit ebenfalls algorithmisch geschaffener Diskursvielfalt.