CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

Neuer Raum für transformative Lösungen

Malte Engeler
KIR 2024, 37 - From a situation in which nothing can happen, suddenly anything is possible again.“ Mit diesen ermutigenden Worten beendet Mark Fisher sein bekanntes Werk „Capitalist Realism“. Er beschreibt darin, wie die Bevölkerung der westlichen ökonomischen Zentren es verlernt hat, sich ein Miteinander vorzustellen, das nicht auf Konkurrenz, Wirtschaftswachstum und privater Aneignung beruht. Anknüpfend an den titelgebenden Begriff von Mark Fisher wird in Bezug auf sogenannte „Künstliche Intelligenz“ (KI) mittlerweile ein ähnliches Phänomen diskutiert: „AI Realism“.
In kürzester Zeit hat sich eine technische Entwicklung als unausweichliche Notwendigkeit auf allen Ebenen der Vorstellung festgesetzt – im politischen, ökonomischen und juristischen Diskurs. Wir haben in Rekordgeschwindigkeit zunächst gelernt, dass KI die Rettung des Planeten, der europäischen Wirtschaft und der westlichen Demokratien sein wird und gleichzeitig verlernt, uns eine Zukunft vorzustellen, die nicht von den Versprechen der KI-Konzerne geprägt ist.
Diese Unausweichlichkeit und diskursive Hoheit der Erzählungen hinter maschinellem Lernen und neuronalen Netzen haben auch die juristische Debatte fest im Griff. So führt etwa die Erkenntnis, dass es bei etablierten, kommerziellen Large Language Models (LLMs) praktisch unmöglich ist, fundamentale Betroffenenrechte der DS GVO zu erfüllen, nicht etwa zu der Schlussfolgerung, die Technologie grundsätzlich in Frage zu stellen. Stattdessen wird vorgeschlagen, den Anwendungsbereich der Betroffenenrechte teleologisch zu reduzieren, um zu verhindern, dass ganze Modelle ressourcenintensiv neu trainiert werden müssen (Hacker CMLR 2024, 345).
Statt die sozialen und politischen Gefahren von maschineller Mustererkennung zum Anlass zu nehmen, sich gegen ihre Erschaffung und Verbreitung auszusprechen, wird über juristische Hilfskonstruktionen wie zB zweckgebundene Modelle nachgedacht (Mühlhoff/Ruschemeier AIRe 2024, 24). Statt die Praxis der nicht konsensualen Aneignung und privaten Verwertung von öffentlichem Wissen zu verhindern, wird sich mit Placebos wie Transparenz und Informationspflichten begnügt (Garante per la protezione dei dati personali 2023, abrufbar unter: https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847). Die einschlägigen Veröffentlichungen und Aufsichtsverfahren adressieren damit zwar die rechtlichen Herausforderungen, sind jedoch gleichzeitig stets bemüht, Lösungen zu entwickeln, die die Notwendigkeit eines radikalen Umdenkens vermeiden.
Die juristische und rechtspolitische Debatte trägt bereits Züge einer vorauseilenden Kapitulation vor den ökonomischen Erzählungen und Interessen der KI- und Datenwirtschaft. Ob KI die Technologie der Zukunft ist und – vielmehr noch – ob diese Zukunft überhaupt wünschenswert ist, wird aus der Debatte zunehmend ausgeklammert.
Die Frage scheint nur noch, wie wir die Technologie regulieren und dabei möglichst sicherstellen, dass die spekulierten Gewinne in Europa verbucht werden.
Ein kritischer, interdisziplinärer Blick braucht sich jedoch nicht derart zu „verzwergen“. Die Frage, wie eine sinnvolle Technikregulierung aussieht, darf, soll und muss gleichberechtigt neben grundlegenden Überlegungen stehen: Was bedeutet beispielsweise der Begriff „Innovation“? In welchen Anwendungsbereichen dient der Einsatz von maschinellem Lernen tatsächlich dem Wohl der Allgemeinheit? Welche Kriterien für die Verbreitung von KI-Anwendungen eignen sich, um über einen Einsatz zu entscheiden? Sind „Profitabilität“ oder „Vermarktbarkeit“ dabei die relevantesten Gradmesser? Sich zwischen medialem Hype und Investoreninteressen durch dieses Dickicht von Fragen zu navigieren und dabei mit einem klaren Blick den tatsächlichen gesellschaftlichen Fortschritt im Auge zu behalten, ist keine leichte Aufgabe.
Die Herausforderungen, vor der die KIR steht, sind also nicht klein. Aber sie sind überwindbar. Mark Fisher bekräftigt dies im vorletzten Satz des eingangs zitierten Buchs mit den (nur leicht abgewandelten) Worten: „The tiniest event can tear a hole in the grey curtain of reaction which has marked the horizons of possibility under [AI] realism.“
Eine kleine Idee, ein mutiger Vorschlag kann den Raum des Vorstellbaren wieder weiten und das Denken in alternativen Szenarien und Lösungen anregen.
Aber welche alternativen Szenarien sind es, denen konkret in Bezug auf KI neuer Raum geöffnet werden muss? Diese Frage kann nur beantwortet werden, wenn die strukturellen Probleme des Status Quo analysiert werden. Spannende Ansätze einer solchen Analyse finden sich bei Evgeny Morozov (Blätter für deutsche und internationale Politik 1/2020). Er stellt dar, wie gerade im Kontext von KI das Denken in den vertrauten Dimensionen des kapitalistischen Wettbewerbs dazu geführt hat, „unsere Phantasie zu begrenzen und uns die Hände zu binden“. Er ermutigt stattdessen, KI als Allgemeingut zu denken, deren Governance analog zu gemeinwohlorientierten Institutionen wie Bibliotheken gestaltet werden muss.
Auch die deutsche Wikimedia betont, dass „Gemeinwohl prinzipiell in einem Spannungsfeld mit Gewinnorientierung“ steht. Die Auflösung dieses Spannungsverhältnisses ist eine der transformativsten Herausforderungen der Gegenwart. Sie stellt sich angesichts der gewaltigen gesellschaftlichen und ökologischen Belastungen im Kontext von KI jedoch mit besonderer Dringlichkeit. So zeigt sich im verschwenderischen Wettrennen weniger Digitalkonzerne derzeit besonders, dass das Ziel wirtschaftlichen Gewinn zu erzielen, kein sinnvoller Ansatz sein kann, um eine globale Ressource wie das digitale Wissen unserer Gesellschaft zu bewirtschaften.
Die Fragen, denen die KIR Raum geben kann, sind also nicht nur technischer, rechtlicher oder gesellschaftlicher Natur, sondern fragen auch nach neuen solidarischen ökonomischen Modellen.
Die Befassung mit derartigen fundamentalen Fragen kann wiederum konkrete juristische Diskussionen befruchten: Statt etwa die Speicherung von personenbezogenen Daten in LLMs mit brüchiger Argumentation zu leugnen (HmbBfDI, Diskussionspapier: Large Language Models und personenbezogene Daten, 15.7.2024, abrufbar unter: https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/Informationen/240715_Diskussionspapier_HmbBfDI_KI_Modelle.pdf), um Folgeprobleme bei den datenschutzrechtlichen Betroffenenrechten zu vermeiden, würde eine rechtliche Einordnung von KI als Technologie im allgemeinen öffentlichen Interesses gem. Art. 23 Abs. 1 lit. e DS GVO Raum für einen demokratisch ausgehandelten Interessenausgleich zwischen den Interessen der Betroffenen und den gesellschaftlichen Vorteilen der Nutzung neuronaler Netze öffnen (Engeler/Rolfes ZD 2024, 496). 
Dass es mit der KIR diesen Raum nun gibt, macht sie zu einer der spannendsten Neuerscheinungen der digitaljuristischen Literaturlandschaft.

Dr. Malte Engeler
Dr. Malte Engeler ist Mitbegründer von „Strukturelle Integrität“, einem radikal bedürfnisorientierten, digitalpolitischen Kollektiv. Er forscht zu Themen des Datenrechts, der postkapitalistischen Datenökonomie und der solidarischen Digitalpolitik. Beruflich ist er im Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) tätig.

Anzeigen

KIR-Testabo

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü