Hansjürgen Garstka

Tagungsbericht zum Steinmüller-Workshop am 27.5.2015


Big Data: Auf dem Weg in die Datendiktatur? Tagungsbericht zum Steinmüller-Workshop am 27.5.2015

ZD-Aktuell 2015, 04152         Zum dritten Mal trafen sich am 27.5.2015 Freunde und Kollegen des vor zwei Jahren verstorbenen Datenschutzapologeten Wilhelm Steinmüller in der Europäischen Akademie Berlin, um Fragen der Beziehung von Informatik und Gesellschaft zu diskutieren (vgl. zum zweiten Treffen den Tagungsband Garstka/Coy (Hrsg.), Wovon – für wen – wozu. Systemdenken wider die Diktatur der Daten, 2014). Das Thema des diesjährigen Workshops „Big Data: Auf dem Weg in die Datendiktatur“ knüpft an einen Begriff an, den Steinmüller in seinem Lebenswerk „Informationstechnologie und Gesellschaft“ (s. Wilhelm Steinmüller, Informationstechnologie und Gesellschaft. Einführung in die angewandte Informatik, 1993, S. 548) als Synonym für die Gefahren der Informatisierung der Gesellschaft geprägt hatte.

 

Gastgeber war wiederum die Europäische Akademie für Informationsfreiheit und Datenschutz, deren Vorsitzender, der vormalige Bundesbeauftragte für Datenschutz und Informationsfreiheit, Peter Schaar, sich in seiner Begrüßung kritisch mit dem neuen Gesetzentwurf zur Vorratsdatenspeicherung auseinandersetzte, der just an diesem Tag im Bundeskabinett beschlossen wurde. Er wies darauf hin, dass sich die Vorratsdatenspeicherung einreihe in die Tendenzen, mit immer größeren, anlass-unabhängigen Datensammlungen den unbeobachteten Freiraum der Menschen mehr und mehr einzuschränken (vgl. EAID-Stellungnahme und Dix/Kipker/Schaar, ZD 2015, 300).

 

Überschattet wurde der Workshop vom plötzlichen Ableben von Klaus Brunnstein, der das Eröffnungsreferat zum Thema „Big Data Analytics“ halten wollte und in dem er sicherlich seine jüngst vorgebrachte These zur „Verdreckung der Privatsphäre“ durch Big Data näher erläutert hätte.

Stattdessen würdigte Wolfgang Coy sein Lebenswerk als einen der bedeutendsten Pioniere der Etablierung der Informatik als Lehrfach an deutschen Universitäten einerseits, als frühen Verfechter des Lehrfachs „Angewandte Informatik“ andererseits. Zusammen mit Wilhelm Steinmüller, einem der Kläger gegen die Volkszählung 1983, habe er als Informatiker einen erheblichen Anteil an der Etablierung des Grundrechts auf informationelle Selbstbestimmung. Seinem auch nach der Emeritierung währenden Engagement für Datenschutz und Datensicherheit, auch im internationalen Rahmen, komme große Bedeutung für die Wahrnehmung und Entwicklung dieser Themen in der Informatik zu.

 

In seinem eigenen Referat „Was ist dran an Big Data? Ein Marketingschlagwort aus informatischer Sicht durchleuchtet“ setzte sich Coy kritisch mit diesem Begriff auseinander. „Big Data“ sei ein großer Trend in der aktuellen Debatte, obwohl niemand wisse, was das ist. Dies erinnere ihn an das Zitat von Mephisto in Goethes Faust: „Denn eben wo Begriffe fehlen, da stellt ein Wort zur rechten Zeit sich ein“ (Goethe, Faust I, Vers 1995). Die Informatik sehe dieses Schlagwort nüchterner. Es repräsentiere drei Herausforderungen, die heute mit übergreifenden Datenverarbeitungssystemen verbunden seien: die Bewältigung größter Datenmengen (volume), hohe Anforderungen an die Verarbeitungsgeschwindigkeit (velocity), die Notwendigkeit, verschiedenste Datenformate in eine verarbeitbare Form zusammenzuführen (variety). Nur wenn diese Anforderungen vorlägen, könne man sinnvollerweise von Big Data sprechen. Alle darüber hinausgehenden Verwendungen reihten sich ein in die „Buzzwords“, die die Geschichte der Informatik prägten und deren Festsetzung in der öffentlichen Diskussion stets vor allem im Interesse der IT-Industrie gelegen habe.

 

Der Titel des Vortrags von Klaus Lenk: „Regulation by Technology – Zu den Folgen datenintensiver gesellschaftlicher Steuerung“ deutet bereits seine Grundhypothese an, dass sich mit den neuen informationstechnologischen Gegebenheiten wie etwa Big Data der Aggregatzustand der gesellschaftlichen Ordnung ändere. Dies betreffe vor allem die Rolle von Staat und Recht, diese „fransten aus“, die Ordnungsfähigkeit zentraler Stellen schwinde. Neben sie träten außerstaatliche Kräfte, die als das staatliche Recht überlagernde private Rechtsordnungen gesehen werden könnten. Eine neue „gouvernementalité algorithmique“ (Antoinette Rouvroy, in: Rouvroy/Berns, Gouvernementalité algorithmique et perspectives d’emancipation, Reseaux 2013, S. 163–196) bediene sich der Eigenschaften und Steuerungswirkungen der realisierten Technik. Code und zwingende Architektur (Lawrence Lessig, in: Lessig, Code and other laws of cyberspace, Code: Version 2.0., New York 2001) änderten den staatlichen Steuerungsmix. Steuerung durch imperatives Recht, das auch die Freiheit zur Nichtbefolgung belasse und damit kluges und ethisches Handeln ermögliche, werde durch diese ersetzt. Mit Hilfe eines an die Kybernetik angelehnten Steuerungsmodells (Abfolge von Beobachtung  und Wissensgenerierung – Entscheidung – Bewirken) erläuterte Lenk einige Aspekte dieser Entwicklung: In Zusammenhang mit Big Data komme künftig den allgegenwärtigen Beobachtungstechniken, die buchstäblich „unter die Haut“ gingen, große Bedeutung zu; die Wissensgenerierung, die den Entscheidungen zu Grunde gelegt werde, vollziehe sich mehr und mehr im Hinblick auf eine konstruierte Realität („governance by numbers“). Am bedeutendsten seien die Änderungen bei der Entscheidungsfindung: undurchschaute und unverantwortete Prämissen, Dominanz der Statistik (Folgerungen werden nicht mehr aus Kausalitäten, sondern aus Wahrscheinlichkeiten gezogen), Vorrang von Prävention und Präemption, von Maschinen gesteuerte automatische Entscheidungen (hier ein Verweis auf das Verbot automatischer Entscheidungen im französischen Recht, Loi relative à l’informatique, aux fichiers et aux libertés, Art. 10 S. 2: Aucune décision produisant des effets juridiques à l'égard d'une personne ne peut être prise sur le seul fondement d'un traitement automatisé de données destiné à définir le profil de l'intéressé ou à évaluer certains aspects de sa personnalite) kennzeichneten die Veränderungen. 

 

Lenks Thesen führten zu einer lebhaften Diskussion. Insbesondere seine als zu negativ wahrgenommene Einschätzung automatisierter Entscheidungen führte zu Kritik, vor allen von Informatikern (Jörg Pohle, Kai Nothdurft), die nach einer Begründung dafür fragten, woraus sich ergebe, dass automatische Entscheidungen schlechter seien als menschliche, denen ebenfalls undurchsichtige Prozesse zu Grunde liegen könnten. Außerdem gingen in automatische Entscheidungen stets auch menschliche Entscheidungen ein (Programmierung, Bereitstellung von Daten). Andrzej Mrózek wies darauf hin, dass diese Diskussion schon seit Montesquieu bei der Frage geführt worden sei, ob sich richterliche Entscheidungen automatisieren ließen. Henner Wolter betonte, es komme darauf an, welcher Entscheidungsweg für die Menschen den meisten Nutzen bringe. Die Frage nach der Kontrolle über die verwendeten Algorithmen wurde gestellt (Wolfgang Kilian). Als konkretes Beispiel für die Problematik wurde die Debatte um Zulässigkeit und Ausgestaltung von Scoring-Verfahren benannt (Hansjürgen Garstka). Jochen Rieß wies hierzu darauf hin, dass es darauf ankomme, ob man der Gleichheit (Scoring) oder der Einzelfallgerechtigkeit (menschliche Entscheidung) den Vorzug gebe.

 

Der „Ambivalenz der Wirkungen Moderner Informations- und Kommunikationstechnologien“ wandte sich Klaus Fuchs-Kittowski zu. Er verwies auf Äußerungen von Ernst Bloch zur Ambivalenz des Fortschritts und zum „Verlust im Vorwärtsschrei-

ten“ (vgl. Ernst Bloch, Differenzierung im Begriff Fortschritt. Sitzungsberichte der Deutschen Akademie der Wissenschaften zu Berlin, 1956). Wie jeder Technikeinsatz habe der Einsatz der Informations- und Kommunikationstechnik außer positiven auch negative Folgen. Sie ergäben sich im Wesentlichen „aus der erforderlichen Reduktion der menschlichen (semantischen) Informationsverarbeitung auf die maschinelle (syntaktische) Informationsverarbeitung“ (vgl. hierzu auch Hans-Wilhelm Heibey, Zu den Anfängen der informatischen Wirkungsforschung: Theorie der Informationsveränderungen, in: Garstka/Coy, a.a.O., S. 131–144). Zur konkreten Analyse verwies Fuchs-Kittowski auf einen Vorschlag Steinmüllers, nach dem die Ambivalenzen auf verschiedenen Ebenen (Individuum, Gruppe, Staatsbürger) und auf verschiedene Effekte hin (Rationalisierung, Beherrschung, Entscheidung, Entwicklung) untersucht werden müssten (vgl. Wilhelm Steinmüller, Rationalisation and Modellification: Two Complementary Implications of Information Technologies, in: Lavington/Simon (Hrsg.), Information Processing 80, 1980, S. 853 ff.) . Sein Schema sei inzwischen weiterentwickelt worden (Einbeziehung der Natur, Automatisierung des Alltags, Internet der Dinge). An Beispielen erläuterte Fuchs-Kittowski einige Konsequenzen: So gehe mit der Komplexitätsreduktion unüberschaubarer Realität eine Abkapselung von der realen Erfahrungswelt einher („Entsinnlichung“). Die Entwicklung neuer Forschungsmethodologien und neuer Forschungsrichtungen werde ermöglicht; zugleich aber, gestützt auf für diese Datenauswertung entworfenen Algorithmen, eine umfassende Ausspähung der Bevölkerung. Sie führe mit der Anwendung durch Geheimdienste zur Verschmelzung von ziviler und militärischer Welt. Ferner bestünden ambivalente Wirkungen auf die menschliche Selbstverwirklichung. Einerseits würden geistige Tätigkeiten herausgefordert und stimuliert. Andererseits bestünde die Gefahr der Vermassung durch eine enorme Verbreitung der sinnentleerten syntaktischen Darstellungsformen der Information.

 

In der Rasterfahndung nach RAF-Terroristen im Jahr 1979 sah Jochen Rieß ein Vorläuferinstrument von Big Data: Nach bestimmten Suchkriterien (z.B. Bargeldzahlung von Wohnungsmiete und Strom, geringer Stromverbrauch in kleinen Wohnungen) wurden die Datenbanken großer Institutionen (Wohnungsbauunternehmen, Meldeämter, Elektrizitätsunternehmen) durchsucht – einmal (allerdings nicht wiederholt) mit Erfolg. Da dies ohne Rechtsgrundlage erfolgte, entstand eine große gesellschaftliche Debatte. Im Mittelpunkt stand der damalige Präsident des BKA, Horst Herold, der mit seinen Überlegungen zur Durchsuchung von Alltagsdaten nach Täterprofilen und seinem Ruf nach dem Präventivstaat („Sonnenstaat“) heftigste Kritik auf sich zog. Diese Auseinandersetzung sei für Steinmüllers Haltung zum Datenschutz prägend gewesen und habe damit entscheidend zur Entwicklung des informationellen Selbstbestimmungsrechts beigetragen. Die Frage stelle sich, wie dies heute faktisch noch wirksam ist. Hier kommt Rieß zu einer skeptischen Einschätzung. Die Datenausgangslage sei heute ganz anders als vor 30 Jahren. Mit dem Internet seien Freiheiten auch ohne Rücksicht auf die informationelle Selbstbestimmung reklamiert worden, die sich heute Unternehmen und Dienste zu eigen machten. Die rechtlichen Bollwerke gegen die drohende Datendiktatur seien schwach. Sie müssten ersetzt werden durch parlamentarische Kontrolle und zivilgesellschaftliches Engagement. Ein Problem sei, dass die kritische Diskussion im Wesentlichen in Deutschland geführt werde. Am Beispiel Frankreichs und des dort jüngst verabschiedeten Überwachungsgesetzes zeige sich, wie mangelhaft selbst in Europa die kritische Diskussion ist. Rieß wies darauf hin, dass Vorratsdatenspeicherung in Ausnahmefällen nur dann zugelassen sei, wenn eine hinreichende parlamentarische Kontrolle gewährleistet ist. Als zentrale Frage stelle sich dabei die Einhaltung der Zweckbindung heraus, diese sei entscheidend für den Unterschied zwischen Demokratie und Diktatur.

 

„Big Data und Zweckbindung“ thematisiert dann auch Jörg Pohle. Er wies darauf hin, dass der Zweckbindungsbegriff Mitte der 60er-Jahre (also in der Entstehungszeit der Datenschutzdiskussion) in den USA in Zusammenhang mit der Betroffenenentscheidung in der Forschung entwickelt wurde. Zweckbindung soll sicherstellen, dass nur diejenigen Maßnahmen ergriffen werden, die von der Einwilligung abgedeckt sind (Ruebhausen/Brim, Privacy and Behavioral Research, Columbia Law Review 1965, S. 1184, 1197). In ihrem Grundlagengutachten hätten Steinmüller u.a. in der „Zweckentfremdungsregel“ dieses Prinzip im Hinblick auf die informationelle Selbstbestimmung verallgemeinert (Steinmüller u.a., Grundfragen des Datenschutzes, Juli 1971, BT-Drs. VI/3826, S. 114 f.). Bernhard Hoffmann sei zuzustimmen, dass die Zweckbindung als „Kernpunkt eines prozeduralen Datenschutzansatzes“ zu verstehen sei (Hoffmann, Zweckbindung als Kernpunkt eines prozeduralen Datenschutzansatzes, 1991). Die Zweckbindung sei auch angesichts des Ausuferns der Informationstechnologie kein „Auslaufmodell“ (Martin Kutscha, in: Kutscha, Datenschutz durch Zweckbindung: ein Auslaufmodell?, ZRP 1999, 156-160) sie diene vielmehr gerade dazu, die Entwicklung der Informationsverarbeitung zu begrenzen. Sie sei „ein Artefakt spezifischer Operationalisierungsentscheidungen“ mit dem Ziel, den künftigen Gebrauch der Daten voraussehbar zu machen. Der Operationalisierungscharakter der Zweckbindung zeige auch, dass die Bezugnahme auf personenbezogene Daten nicht sinnvoll ist, dass der Bezugspunkt vielmehr die personenbezogene Entscheidung sein müsse. Dies zeigten gerade die bei Big Data im Mittelpunkt stehenden statistischen Daten: Selbst wenn diese anonym seien, dienten sie sehr wohl zur Generierung personenbezogener Entscheidungen. Regelungsansatz dürfe nicht mehr die Individualsierung der Prozesse sein, sondern die Sicherstellung der Rechtsstaatlichkeit.

 

Dass hinter dem Thema von Herbert Burkert: „Endlich das Ende der Privatsphäre.“ ein Punkt (und kein Fragezeichen) steht, war kein Rechtschreibfehler, sondern der ausdrückliche Wunsch des Autors. Er beschrieb zunächst die Veränderung des Privatsphärebegriffs vom Unantastbarkeitstheorem des Ehescheidungsaktenurteils über die Entwicklung des Grundrechts auf informationelle Selbstbestimmung im Volkszählungsurteil und dessen Verknüpfung mit anderen Grundrechten in darauf folgenden Urteilen bis hin zum Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme im Online-Durchsuchungs-Urteil. Die Bedeutung der Privatsphäre habe sich vom Abgrenzungsprinzip hin zu einem Strukturprinzip gewandelt. Er zählte nun eine Reihe von Aspekten auf, die, wie er später ausführte, zu einer gewissen Hilflosigkeit gegenüber dem Big-Brother-Phänomen führe: Kontextverlust der Daten, Profilbildungen als „Echowirkung“, Verlagerung von Entscheidungsmacht auf die Betreiber von Codierungen, die Problematik von Einwilligungen. Auch die Zweckbindung sei ein schwaches Instrument, da sie sich den jeweiligen Zwecken anpasse. Als Anregung für die Diskussion verwies er schließlich auf neue Ansätze in der US-amerikanischen Diskussion: Ökonomisierung, Differential-Privacy-Verfahren (Ausschließen der Personalisierbarkeit von Datenmengen ohne Anonymisierung, z.B. durch Verrauschung), Due Process-Ansatz (regulativer „oversize“ bei erheblichen Auswirkungen), Algorithmic transparency (Sicherstellung von „veracity“, der Datenintegrität, viertes „V“ neben den von Coy genannten drei Charakteristika und Herausforderungen von Big Data). Vor allem müsse Transparenz im Vordergrund der Bewältigungsdiskussion stehen, das bedeute die Ergänzung der Datenschutzordnung um eine Transparenzordnung.

 

In der anschließenden Diskussion der letzten drei Vorträge wies Wolfgang Kilian zunächst darauf hin, dass die Frage, wem Daten denn gehörten, immer noch ungeklärt sei, z.B., ob es ein „Eigentum“ an Daten geben könne. Damit zusammen hänge der von Burkert angesprochene Ökonomisierungsaspekt. Persönlichkeitsrechte sollten künftig jedenfalls nicht als öffentliche Güter, sondern als private verwertbare Rechte (property rights) betrachtet werden. Zur Realisierung könne man das Modell der Verwertungsgesellschaften heranziehen. Angesichts der geringen Möglichkeiten, als Einzelperson Rechte durchzusetzen, sei die Verbandsklage von Bedeutung, die gesetzlich eingeführt werden soll. Lenk verwies ergänzend auf einen Vorschlag zur genossenschaftlichen Verwaltung von Daten in der Schweiz. Er forderte weiter, die inzwischen wirkungslose, mit dem informationellen Selbstbestimmungsrecht vorgenommene Vorverlagerung des Persönlichkeitsschutzes zu relativieren und sich wieder auf die eigentlichen Schutzgüter des Datenschutzes zu konzentrieren. Zur Thematik des Personenbezugs verwies Garstka auf das 2001 vorgelegte Gutachten zur Modernisierung des Datenschutzes, in dem herausgestellt wird, dass in der (damaligen!) Zukunft es keinen Sinn mache, alle Formen der Datenverarbeitung einheitlichen Anforderungen zu unterwerfen. Vielmehr müsste unterschieden werden zwischen Verarbeitung mit gezieltem (also nach Pohle entscheidungsbezogenem) und Verarbeitung ohne gezielten Personenbezug. In letzterem Falle müssten – unabhängig davon, ob sich ein Personenbezug konstruieren lässt – bestimmte strukturelle Regelungen gelten (Roßnagel/Pfitzmann/Garstka, Modernisierung des Datenschutzes, Gutachten im Auftrag des BMI, 2001, S. 68 f.).

 

Zum Abschluss des Workshops illustrierte Dieter Klumpp im wahrsten Sinn des Wortes nochmals die globalen Aspekte von Big Data: „Big Data als Wunschtraum von Ländern/Regimes in aller Welt?“ Das Bild des Datenstaubsaugers versinnbildliche die Philosophie, die nicht erst nach dem 11. September 2001, sondern bereits mit der Cybercrime Convention des Europarats vor diesem Ereignis ihren Ausgangspunkt gehabt habe. Seither sei keine Weichenstellung in eine andere Richtung mehr möglich gewesen. Dabei teile sich die Welt zunehmend in Global Players, Regional Actors und Cyber Colonial Dependants, das weltweite Internet sei nur eine Zwischenstation gewesen. Hinzu komme die Cyber-Wettrüstung mit „D-Waffen“. Maschinen definierten den Anfangsverdacht, nicht mehr Menschen. Es bleibe nicht beim Wunschtraum autoritärer Systeme, sondern dieser sei bereits erfüllt. Der Ruf nach „All Data“ führe in den Maschinen-Totalitarismus. Das erinnere an Goethes Zauberlehrling, nur der zurückkommende Meister mit seinem „In die Ecke, Besen“ fehle.   

 

 

 

Prof. Dr. Hansjürgen Garstka ist ehemaliger Datenschutzbeauftragter des Landes Berlin.