CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

Prädiktives Wissen als Machtinstrument

Hannah Ruschemeier / Rainer Mühlhoff

MMR 2026, 169   Es gibt kein Entkommen mehr: KI scheint überall zu sein. Kein Tag ohne KI-Schlagzeile, keine Kundenanfrage ohne Bot, keine Online-Suche mehr ohne KI-Zusammenfassung, kein Social-Media-Post ohne algorithmische Kuratierung, kein Gedanke mehr ohne ChatGPT?

Chancen und Risiken sektorenspezifischer KI-Phänomene werden zu Recht aus unterschiedlichen Perspektiven ausführlich erforscht, analysiert und diskutiert. Sind Filterblasen schädlich für die Demokratie? Zerstört KI Arbeitsplätze? Führen LLMs zu einer Abnahme der akademischen Leistungsfähigkeit? Rettet KI das Klima?

Systemische Verschiebungen sind naturgemäß weniger sichtbar und haben es auch schwerer, angesichts kurzlebiger Hype-Zyklen in gesellschaftlichen Diskussionen angemessene Aufmerksamkeit zu finden. Eine strukturell prägende Entwicklung ist aus unserer Sicht die Übernahme von Wissensproduktion, -verbreitung und -verarbeitung durch prädiktive Technologien, die zu einer grundlegenden epistemischen Verschiebung sowie einer nie dagewesenen Konzentration von Macht führt.

Von Datafizierung zu KI

Begonnen haben diese Entwicklungen mit der inzwischen ubiquitären Verbreitung vernetzter Medientechnik, die die "Datafizierung", also die Übersetzung aller menschlichen Lebensbereiche in Daten, ermöglicht hat. KI-Geschäftsmodelle beruhen heute auf der systematischen und flächendeckenden Extraktion von Tracking- und Verhaltensdaten im Internet, aus Smartphone-Apps und Wearables. Diese unüberschaubare Datenfülle hat es bestimmten Unternehmen, wie zB Google oder Meta früh ermöglicht, datenbasierte Vorhersagemodelle zu entwickeln, die unbekannte Personenattribute, zukünftige Verhaltensweisen sowie Risiken und Profite über Menschen und Gruppen abschätzen. Diese Technologien sind in den letzten zehn Jahren gesellschaftsprägend geworden, da sie nie auf Einzeldomänen beschränkt waren, sondern die Akteure stets den geschäftsgetriebenen Anspruch verfolgt haben, mit dem Versprechen von Vorhersagen Profite zu maximieren, Prozesse effizienter zu machen und menschlichen kognitiven Aufwand zu reduzieren. Bereits lange vor den Versprechungen rund um eine vermeintliche "allgemeine Intelligenz" markiert diese Technologie den Beginn der aktuellen KI-Ära.

Prädiktive Technologien etablieren eine neue Form von Wissenspraktiken durch Credit-Scoring, personalisierte Werbung, prädiktive Polizeiarbeit, Emotionserkennung am Arbeitsplatz oder die Prüfung von Verwaltungsanträgen. Generative Modelle wie Large Language Models (LLMs) formulieren E-Mails, Steuerbescheide und Drittmittelanträge mithilfe einer Simulation menschlicher Sprache, die auf der statischen Wahrscheinlichkeitsberechnung von Wörterreihenfolgen beruht.

Neben den zahlreichen dokumentierten Risiken von Diskriminierung, Intransparenz und Beeinflussung öffentlicher Debatten führen diese Technologien zu einer fundamentalen Form informationeller Machtasymmetrie. Zum einen liegt die Entscheidungshoheit über Einsatzkontext und -modalitäten in der Hand einiger datenmächtiger Akteure. Zum anderen sind fast alle Menschen durch die Auswirkungen von Vorhersagetechnologien betroffen. Mittels statistischer Verfahren werden aus nutzerbezogenen Datenspuren umfassende Persönlichkeitsprofile extrahiert. Diese inferierten Merkmale -- etwa sozioökonomischer Status, psychologische Dispositionen oder gesundheitliche Risiken -- dienen der algorithmischen Optimierung der Werbeallokation. Systemisch betrachtet ermöglichen diese prädiktiven Modelle die Erzeugung von Informationen, die über die explizit durch das Subjekt offengelegten Daten weit hinausgehen.

Vorhersagemacht

Dadurch, dass Prädiktionen als gegeben zugrunde gelegt werden, erodieren individuelle Autonomie und soziale Prozesse. Individuen verlieren die Kontrolle über die ihnen zugeschriebenen sozial relevanten Klassifikationen -- sie können diese auch nicht ändern. Denn in den wenigsten Fällen sind die "Entscheidungsgründe" von Vorhersagetechnologien für betroffene Personen erkenn- oder änderbar. Privatheit als essenzielle Voraussetzung für Freiheitsräume, individuelle und kollektive Entscheidungsfindungen sowie offene Debatten werden dadurch untergraben. Oft wissen Menschen gar nicht, dass sie in algorithmische Gruppen einsortiert und klassifiziert wurden, was zu einer Transformation sozialer, ökonomischer und politischer Beziehungen führt, nämlich zu einer Transformation von dem, was als Wissen angesehen wird. Ziel der Unternehmen, die die Vorhersagetechnologie KI in jeden Lebensbereich integrieren wollen, ist es, die Realität algorithmisch zu berechnen. Dadurch werden Wissens- und Entscheidungsprozesse öffentlichen oder staatlichen Kontrollstrukturen entzogen, und in die Hände der Akteure gelegt, die die eingesetzten Modelle entwickelt haben.

In dieser Konzentration von technischen Möglichkeiten, Datenakkumulation und globaler Handlungsfähigkeit der Big-Tech-Unternehmen manifestiert sich eine Macht über Daten in Form von Vorhersagemacht. Da prädiktive Technologien die Aggregation großer Mengen von Nutzungsdaten voraussetzen, konzentriert sich Vorhersagemacht auf jene Akteure, die über entsprechende Daten und die Möglichkeiten ihrer Verarbeitung verfügen.

Herausforderungen für Regulierung

Vorhersagetechnologien führen in mehrfacher Hinsicht zu Entgrenzungen: Es handelt sich um globale Technologien, hinter denen globale Akteure stehen, was eine rechtliche Regulierung naturgemäß erschwert. Geopolitisch scheint eine Einigung über verbindliche Vorgaben der Staatengemeinschaft in weiter Ferne. In Bezug auf die Funktionsweise ist der Einsatz von generativen Modellen oder "Modellen mit allgemeinem Verwendungszweck" in der Sprache der KI-VO in ganz unterschiedlichen Kontexten gerade das Ziel. Allgemeine Verwendungszwecke hingegen sind ein Trugschluss, der Verantwortungsdiffusion verstärkt und Kontrollierbarkeit erschwert. Das im Datenschutzrecht fundamentale Prinzip der Zweckbindung, wonach Daten nur für solche Zwecke verarbeitet werden sollen, für die sie erhoben wurden, bzw. die nachfolgenden Zwecke mit den Primärzwecken kompatibel sein müssen, wird dadurch ausgehöhlt. Darin liegt ein immenses Risiko, da bereits die Herrschaft über umfassende Datensätze wie das Wissen um jegliche Details des Privatlebens von Nutzern, webseitenübergreifende IDs, die individuelles Profiling ermöglichen und zentralisierte Datenbanken, erhebliches Missbrauchspotenzial bieten sowie schlicht ein Sicherheitsrisiko darstellen. Das Konzept des "function creep", der schleichenden Ausweitung von Systemen über ihren ursprünglichen Zweck hinaus, ist schon vor KI gut dokumentiert. Jüngstes Beispiel ist die Forderung der Immigration and Customs Enforcement Agency (ICE) gegenüber AdTech-Firmen und Datenhändlern, Werbedaten und prädiktive Modelle, die eigentlich für personalisierte Werbung trainiert wurden, zu übermitteln. Darin realisiert sich ein Risiko, vor dem lange gewarnt wurde: die Zweckentfremdung ziviler Datensammlungen und KI-Technologien für rechtsstaatlich nicht hinreichend eingehegte staatliche Machtausübung.

De-Regulierungstendenzen

Datenintensive Vorhersagetechnologien erzeugen negative Externalitäten, wie den massiven Verbrauch von Energie und natürlichen Ressourcen, die "epistemische Verschmutzung" durch KI-Müll, der das Internet flutet, die Umbrüche in Unternehmen, in denen kollaboratives Arbeiten durch das Abwälzen auf KI erschwert wird, die Kosten der Universitäten, sich auf neue Prüfungsformate einzustellen, die Entwertung von Kunst, Musik und anderen urheberrechtlichen Schöpfungen, die in LLMs verarbeitet werden.

Bisher steht dieser informationellen Machtasymmetrie auf europäischer Ebene keine wirksame regulatorische Einhegung gegenüber. Das im Kontext des europäischen Grundrechtsschutzes größtenteils auf Individualrechten beruhende Datenschutzrecht stößt mit Regulierungskategorien des individualisierbaren Datenverarbeitungsvorgangs oder den individualisierbaren Datensubjekten bei Massendatenverarbeitungsvorgängen an Grenzen. Der Ansatz des Digital Services Act (DSA) systemische Risiken anzuerkennen, die über das bilaterale Verhältnis zwischen Nutzer und Social-Media-Plattform hinausgehen, sondern kollektive Güter wie die gesellschaftliche Debatte adressieren, ist ein Schritt in die richtige Richtung.

Politisch steht die Regulierung von KI jedoch zurzeit stark unter Druck: die EU-Kommission hat mit ihrem Omnibus-Paket zwar einige sinnvolle Änderungen vorgeschlagen, im Kern aber eine De-Regulierungsoffensive gestartet. Unter dem Credo einer vermeintlichen "Vereinfachung" des überkomplexen und zT überladenen Unionsrechts werden Grundentscheidungen wie der Anwendungsbereich und die technologische Neutralität der DS-GVO zugunsten von KI überworfen. Schließlich wird auch die gerade erst verabschiedete KI-VO wieder aufgeschnürt, wobei die Änderungsvorschläge eine deutlich de-regulierende Tendenz aufweisen. Die Anwendung verschiedener Regeln der KI-VO wird so lange verzögert, bis die Kommission einen entsprechenden Beschluss fasst -- dies ist bereits demokratietheoretisch fragwürdig, da nach einem langen Ringen gerade ein Kompromiss mit dem EU-Parlament gefunden wurde.

Vorsorgeprinzip und gesellschaftliche Auswirkungen

Rechtssichere, gemeinwohlorientierte und nachhaltige Technologien sollten das Ziel demokratischer Rechtsstaaten sein. Dafür bietet das regulatorische Mehrebenensystem der EU zahlreiche Anhaltspunkte und Chancen zum Schutz vor prädiktiven Zuschreibungen und kollektiven epistemischen Verschiebungen. Ein erster Schritt in die richtige Richtung ist der Aufbau eines KI-Registers, in dem Hochrisiko-Anwendungen dokumentiert sind. Zweckbindung sollte auf Ebene von KI-Systemen und nicht-individuellen Datenverarbeitungen verankert werden. Ausgehend vom Vorsorgeprinzip sollte in einem demokratischen Diskurs entschieden werden, welche Anwendungen von KI wünschenswert sind. Investiert werden sollte nicht nur in AI-Gigafactories, sondern vor allem in unabhängige und verifizierbare Informationsinfrastrukturen.

Wir untersuchen diese Fragen im von der Deutschen Forschungsgemeinschaft geförderten Projekt "Prädiktives Wissen ist Macht: Ethik und Recht kollektiver Privatheit in der Datengesellschaft".

Osnabrück, im März 2026

 

Professorin Dr. Hannah Ruschemeier ist Inhaberin des Lehrstuhls für Öffentliches Recht an der Universität Osnabrück. 

 

Professor Dr. Rainer Mühlhoff ist Professor für Ethik und kritische Theorien der Künstlichen Intelligenz am Institut für Kognitionswissenschaft und Institut für Philosophie an der Universität Osnabrück.

Anzeigen

MMR Werbung

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü