Dennis-Kenji Kipker

EAID: Die philosophischen Grundlagen des Datenschutzes


Veranstaltung der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID) am 4.5.2017 in Berlin: Die philosophischen Grundlagen des Datenschutzes

ZD-Aktuell 2017, 04259    Die Veranstaltung der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID) zu den philosophischen Grundlagen des Datenschutzes fand am 4.5.2017 in Berlin in der Hauptstadtrepräsentanz der Deutschen Telekom statt und wurde von Prof. Dr. Alfred Büllesbach geplant sowie von ihm und Peter Zoche vorbereitet und moderiert. Einleitende Worte zu den Grundlagen des Datenschutzes sprach der Vorsitzende der EAID und BfD a.D., Peter Schaar. Schaar hob hervor, dass zentrale Themen einer Veranstaltung zu den philosophischen Grundlagen des Datenschutzes z.B. die Begriffe „Privatheit“ und „Öffentlichkeit“ sind. Der unantastbare Kernbereich privater Lebensgestaltung sei untrennbar mit der Menschenwürde verknüpft, diese Tatsache bilde das BVerfG mit der Rechtsfigur des Grundrechts auf informationelle Selbstbestimmung ab. Dieses Selbstbestimmungsrecht und die damit verbundene Autonomie seien eine weitere Facette des Datenschutzes: der Schutz davor, als Mensch zu einem bloßen Objekt der Fremdbestimmung zu werden. Ein solcher Schutz umfasse insb. den Schutz vor Überwachung des Menschen – sowohl durch den Staat als auch durch Private. Hier sei dann letztlich die Brücke zur Technikregulierung zu schlagen, die mit der zunehmenden Technisierung des Alltages immer wichtiger werde.

Die thematische Einführung in den Workshop gaben Prof. Dr. Alfred Büllesbach und Peter Zoche. Büllesbach argumentierte, dass die Verarbeitung von personenbezogenen Daten infolge der zunehmenden technologischen Entwicklung in unserer heutigen Gesellschaft allgegenwärtig sei. Hierzu nannte er verschiedene Beispiele wie Industrie 4.0, automatisierte Autos, Smart Home, Smart Cities – sogar automatisierte Landwirtschaftsmaschinen. Dies führe dazu, dass immer mehr auch sensitive Daten von Betroffenen verarbeitet würden. Die volle Entwicklung des Internets der Dinge führe letztlich zur Ökonomisierung des Wissens. Die Vergesellschaftung des Wissens müsse jedoch das Ziel sein, nicht der persönliche Zugriff des Einzelnen auf personenbezogene Daten. Man dürfe jedoch auch bei der Betrachtung des Datenschutzes nicht außer Acht lassen, dass mit der Vernetzung von IT-Systemen und der damit verbundenen Informationsverarbeitung auch Vorteile für den Menschen entstünden. Es sei wichtig, diese Ambivalenz zu beachten. Darüber hinaus hob das BVerfG in der Volkszählungsentscheidung schon 1983 hervor, dass Datenschutz nicht nur Schutz der individuellen Freiheit, sondern auch Schutz der demokratischen Gesellschaft bedeutet. Zoche, Vorstand des Freiburger Instituts für angewandte Sozialwissenschaft, legte im Anschluss das Verständnis der Philosophie als eine Wissenschaft der Weltdeutung dar, die dazu geeignet sei, das gesellschaftliche Zusammenleben zu begreifen und zu gestalten. Mit dieser Zielsetzung könne man auch nicht die Soziologie bei der Betrachtung des Datenschutzes außer Acht lassen. Das, was wir heute als weltumspannende Vernetzung kennen würden, bringe auch völlig neue Herausforderungen für das Zusammenleben der Menschen. Diese agierten zunehmend im virtuellen Kommunikationsraum, der zunehmend neue Perspektiven in Sachen Organisation und Kontrolle ermögliche. Die neuen Kommunikationsformen stellten damit das infrage, was in der Vergangenheit als etablierte und sichere Art des vertrauten zwischenmenschlichen Austauschs angesehen wurde. Herkömmliche Kommunikationsformen würden dadurch zunehmend fragil. Die Vorstellung einer Privatsphäre komme damit aus der Mode und sei im Begriff, sich aufzulösen. Wie könne man hier noch Räume schaffen, die sich der Überwachung, insbesondere auch der staatlichen Kontrolle, entziehen? Hierbei gehe es schon lange nicht mehr nur um eine Frage von Privatheit, sondern vielmehr um Freiheit als ein Erfordernis der Demokratie. Das Fatale an der gegenwärtigen Situation sei, dass die Menschen diese Bedrohung nicht spürten und ihnen die Überwachung nicht bewusst sei. Hoffnung zu setzen sei eine Gegenmacht unabhängiger Experten, die das Thema bewusst in der Öffentlichkeit darstellen. Dies sei auch der Rahmen und die Zielsetzung der heutigen Veranstaltung.

Erste Rednerin des Nachmittages war PD Dr. Jessica Heesen von der Universität Tübingen, die zu dem Thema „Stellenwert und Ambivalenz des Privaten in der digitalen Welt“ sprach. Heesen stellte das Thema anhand von drei zentralen Thesen dar: „Medien delokalisieren: Kommunikation und Information; Informationstechniken sind Werkzeuge und Medien; Das Private bietet Schutz vor einer totalitären Ordnung“. Heesen begann ihren Vortrag mit der Frage nach der Privatheit: Privatheit könne nur durch Abgrenzung entstehen. Die Referentin machte dies anhand der Bereichs- und Kontrolltheorien deutlich. Unter Letztere falle auch das Recht auf informationelle Selbstbestimmung. Heesen identifizierte darauf basierend drei Arten von Privatheit: Die lokale Privatheit, die den Wohnbereich und die leibliche Integrität umfasse. Daneben gebe es die dezisionale Privatheit als Ebene der Entscheidungsfreiheit sowie die informationelle Privatheit als diejenige, die sich auf die personenbezogenen Daten beziehe. In Abgrenzung zur Privatheit existiere die Nicht-Privatheit. Diese umfasse den Staat, die Öffentlichkeit, die Privatwirtschaft, den Freundeskreis, das Gehalt. Das Nicht-Private sei damit genauso kompliziert wie das Private und stark von den kulturellen Gegebenheiten abhängig. Die Abgrenzung vom Privaten zum Nicht-Privaten werde durch das Individuum durch eine verschiedene Adressierung von Informationen und Handlungsweisen vorgenommen, hierbei flössen übergesellschaftliche, normative Aspekte ein. In diesem Zusammenhang sei auch die erste These zu betrachten: „Medien delokalisieren“: Mobile und allgegenwärtige Medien würden raumbezogene Normen durchbrechen und Grenzziehungen zwischen Kontexten auflösen. Dies liege vorwiegend darin begründet, dass moderne Informationstechnologien Werkzeuge und Medien darstellten, indem sie nicht mehr nur für die bloße Kommunikation, sondern für alle möglichen Aspekte des Alltags genutzt würden. Hierdurch sei eine Dokumentation des gesamten Handelns möglich. Durch die Nutzung von digitalen Medien erfahre nicht der Einzelne nur mehr über die ihn umgebende Welt, sondern die ihn umgebende Welt auch mehr über den Nutzer selbst. Hierdurch werde das Private gefährdet, was jedoch grade wichtig sei, indem es eine Pluralität normativer Rahmungen ermögliche. Das Private schaffe eine Grenzziehung zwischen verschiedenen Handlungsregimen, die Freiheit von Fremdbestimmung und auch Exklusivität durch Intransparenz. Privatheit biete so den Schutz vor einer totalitären Ordnung.

Dr. Carsten Ochs von der Universität Kassel sprach zum Thema „Vom Ancien Régime zur soziodigitalen Figuration – vier Typen informationeller Privatheit“. Ochs begann seinen Vortrag mit einer Definition des Privatheitsbegriffs, indem er hierzu einige Parameter vorstellte: Privatheit sei an der Grenzziehung zum Nicht-Privaten festzumachen und zeichne sich durch die Multidimensionalität aus. Auf soziologischer Ebene existierten verschiedene Skalenniveaus der Privatheit. Ein Schlüsselbegriff sei dabei die Familienähnlichkeit der Privatheitspraktiken, sodass auch Praktiken unter den Begriff der Privatheit fielen, die dieser augenscheinlich nicht zugeordnet würden. Das Praxisgefüge der Privatheit im 20. Jahrhundert zeichne sich auch durch die Abgrenzung der familialen Privatsphäre zur Arbeitswelt aus, Grenzziehungen zwischen Öffentlichkeit und Privatheit seien dabei nicht nur im Über- und Unterordnungsverhältnis möglich, sondern auch auf der Ebene der Gleichordnung zu finden. Die Gesellschaft sei ein aus unterschiedlichen Welten bestehendes Mosaik mit einem jeweils unterschiedlichen Privatheitsverständnis und damit auch unterschiedlichen Grenzziehungen. Im 21. Jahrhundert werde dieses traditionelle Gefüge aus Privatheit und Öffentlichkeit zunehmend destabilisiert. Auf dieser Erkenntnis einer veränderlichen Privatheit baute der Referent seine Theorie vier unterschiedlicher Privatheitstypen auf: die repräsentative Privatheit im 17. und im 18. Jahrhundert mit einer Privatheitstechnik „sozialer Masken“, die bürgerliche Privatheit von der Früh- bis in die industrielle Moderne hinein, die sich durch den Rückzug aus der Gesellschaft als Privatheitstechnik auszeichne. Das Modell der „hochmodernen Privatheit“ bilde schließlich die Privatheitsvorstellung des 20. Jahrhunderts ab. Privatheitstechnik sei hier die Kontrolle, die sich aus der Pluralisierung sozialer Lebenswelten ergebe, kennzeichnend sei eine Spaltung der Akteure in Teilexistenzen, das multiple Selbst als „Dividuum“, das verschiedene, miteinander korrespondierende Lebenswelten durchwandert. Im 21. Jahrhundert sei das Modell der „vernetzten Privatheit“ ausschlaggebend, das gerade durch die Informationsverbundenheit gekennzeichnet sei. Privatheitstechnik sei hier die Verschleierung, gekennzeichnet durch das unscharfe Selbst („Blurry Self“). Insb. liege hier ein zentraler Widerspruch in der voraussagenden Informationsordnung einerseits und dem zukunftsoffenen Selbst andererseits. Als Fazit stellte Carsten Ochs die Frage, welche Optionen zur Schaffung von Privatsphäre dem Einzelnen in einer Situation tendenziell permanenter Sichtbarkeit noch verblieben. Dies könne vornehmlich nur durch eine Verschleierung des Selbst durch das gezielte Senden von Falschinformationen geschehen. Die Gesellschaft hingegen solle auf die zunehmende Vernetzung durch eine Delegation des Privatheitsschutzes reagieren, indem neue Institutionen der Interessenrepräsentation für den Datenschutz geschaffen werden.

Darauf folgend referierte Lorena Jaume-Palasí von der Universität München zur Themenstellung „Der (a)soziale Algorithmus? Ein Beitrag zur ethischen Betrachtung von Algorithmen“. Zuvorderst stellte Jaume-Palasí die große Bedeutung von automatisierten Entscheidungsverfahren in der Praxis dar, dies nicht nur im privaten Bereich, sondern auch durch Staaten, z.B. bei der Entscheidung über die Erteilung von Visa und Aufenthaltsgenehmigungen. Algorithmen würden letztlich überall vorkommen, wo es auf irgendeine Weise zu einer Datenverarbeitung komme, letztlich sogar in Textilien. Der Algorithmus sei dabei die kleinste Einheit von künstlicher Intelligenz. Eine Perspektive in diesem Zusammenhang sei auch die Verwendung von Algorithmen, die menschliche Entscheidungen evaluierten, daneben die Verwendung von Algorithmen, die menschliche Entscheidungen substituierten. Zu beiden Aspekten der Verwendung von Algorithmen könne man bereits zahllose Beispiele nennen, eine automatisierte Entscheidung, die mit Rechtsfolgen verbunden sei, sei aber unzulässig. Zurzeit würden sieben verschiedene Arten von Algorithmen auf dem Markt verwendet, wovon zwei Typen selbst von den Entwicklern nicht erklärbar seien. Algorithmische Entscheidungssysteme seien zudem nicht neutral, da sie letztlich auch von menschlichen Schöpfern hergestellt worden sind. Deshalb müssten alle computerbasierten Entscheidungsprozeduren nachvollziehbar sein, damit eine demokratische Beteiligung des Betroffenen und eine Kontrolle der Entscheidungsprozesse möglich werde. Die zentrale Frage bei der Automatisierung sei ferner, wie viel man letztlich von seiner eigenen Freiheit delegieren wolle. Jaume-Palasí stellte hierzu ein System der Verantwortungszuordnung vor und machte dabei deutlich, dass sich kein Algorithmus und damit keine künstliche Intelligenz unabhängig entwickelt, sondern vielmehr lernende Algorithmen immer auch von ihrer Lernumgebung abhängig sind. Nach Auffassung der Referentin werde insb. hierdurch die demokratische Relevanz von Algorithmen deutlich, die zurzeit noch nicht ausreichend in der öffentlichen Debatte erfasst und damit unzureichend umgesetzt würde. Vielmehr beschränke sich die Diskussion oftmals nur auf den Datenschutz. Am Beispiel der Diskriminierung würden die mit algorithmenbasierten Entscheidungen einhergehenden Gefahren besonders deutlich. Die moderne Gesellschaft reagiere zwar zumindest auf eine solche Diskriminierung, dies sei jedoch noch kein geeignetes Mittel, um der Diskriminierung selbst im Vorfeld vorzubeugen. Es sei kein Entkommen aus der Diskriminierung möglich, solange nicht flächendeckend für eine egalitäre Gleichheitsgesellschaft eingetreten werde. Algorithmen seien zudem nicht logisch, sondern lediglich kausal, und könnten deshalb diese im ethischen Bereich liegende Aufgabe nicht lösen. Die Beseitigung von Diskriminierung werde deshalb mit der Hilfe von Algorithmen nicht möglich sein. Manchmal sei selbst die Diskriminierung nicht offensichtlich, so z.B. beim „Predictive Policing“ mit dem „Simpson Paradoxon“, wo bestimmten Personengruppen unberechtigterweise eine höhere Kriminalitätsrate zugeschrieben werde, obwohl das Predictive Policing in der augenscheinlichen Annahme einer statistischen Objektivität erfolge. Die besondere Gefahr der Automatisierung liege damit in der Manipulation von Kollektiven begründet.

Prof. Dr. Gerhard Banse vom Berliner Zentrum Technik & Kultur hielt den vierten Vortrag des Tages und beschäftigte sich mit dem Thema „Reflexionen über informationelle Selbst- und Fremdbestimmung in einer smarten Welt“. Einleitend mit Immanuel Kant beschrieb Banse zunächst eine Definition über die Philosophie, nach welcher diese eine Wissenschaft des Menschen, seines Vorstellens, Denkens und Handelns sei. Hierauf basierend identifizierte der Referent eine wissenstheoretische wie auch eine anthropologische Fragestellung: Erstere beschäftige sich mit der Analyse, wie unterschiedliche Wissenselemente die informationelle Selbst- oder Fremdbestimmung beeinflussten. Zweitere analysiere, wie unterschiedliche „Bestimmungen“ des Menschen die informationelle Selbst- oder Fremdbestimmung beeinflussten. Banse sprach von einer „Amalgamisierung“ des Menschen, eines Zusammenwachsens des Menschen mit der Technik. Anhand zweier Beispiele verdeutlichte Banse das Verhältnis zwischen informationeller Selbst- und Fremdbestimmung, das sich seiner Auffassung nach im Zeitraum der letzten 30 Jahre erheblich verändert habe: Heutzutage könnten umfassende personenbezogene Daten gesammelt und veröffentlicht werden, ohne dass es zu großen Protesten wie bei der Volkszählung von 1983 komme. Banse stellte daraufhin die Frage nach den Gründen für diese Entwicklung. Rückführbar sei dies zum einen auf die rasante technische Entwicklung der letzten Jahre und durch die damit verbundene Miniaturisierung und Vernetzung von Computern. Die digitale Omnipräsenz führe zu zunehmender Intransparenz, Komplexität, Verletzlichkeit und umfassender Kompromittierbarkeit. Zum anderen steige die Anzahl von Akteuren in der Online-Welt immer weiter an, mittlerweile gebe es eine Vielzahl von Anbietern und Nutzern, die in einer Gemeinschaft zusammenkämen und den Datenschutz herausforderten. Aber auch ein kultureller Wandel sei eingetreten, indem die Technik in die Kultur des „Alltäglichen“ überführt wurde, digitale Teilhabe bedeute heutzutage letztlich soziale Teilhabe. Damit träten Entgrenzungen in räumlicher, zeitlicher, rechtlicher, sprachlicher, altersmäßiger und sittlicher Art ein. Jedwede Aktivität im Internet führe zudem zu einer Generierung von personenbezogenen Daten. Welchen Stellenwert hätten in dieser Situation Privatheit und Datenschutz, welchen habe die informationelle Selbstbestimmung? Banse konstatierte dazu, dass von Seiten der Verbraucher ein „schlafwandlerisches Vertrauen“ in neue Geschäftsmodelle bestehe, obwohl abstrakt gesehen der Datenschutz für die Bevölkerung immer noch einen hohen Stellenwert genieße. I.E. sei wohl jeder selbst für seine eigene informationelle Freiheit verantwortlich – wichtig sei es aber, die richtige Abwägung als vorgelagerte Grundlage für eine Entscheidung zu treffen. Auf viele Aspekte des aktuellen Datenschutzes und der damit verbundenen Herausforderungen gebe es aber wohl zurzeit noch keine Antwort.

Abschließend referierte Dr. Bruno Gransche von der Universität Siegen zum Thema „Wer handhabt wen? Die Relevanz von Datenschutz für menschliche Entwicklungspotentiale angesichts ‚lernender Systeme'“. Nach Auffassung von Gransche fordere die heutige technische Entwicklung den Datenschutz mehr denn je heraus; dies belegte er anhand von Überlegungen über den Menschenwürdegrundsatz. Lernende Technologien könnten zu einer Einschränkung von Entwicklungspotenzialen führen, wohingegen der Datenschutz gegenteilig Entwicklungspotenziale erschließen könne. Der Referent differenzierte dabei zwischen externen wie internen Mitteln und Zwecken, hieraus leitete er eine prinzipielle Bedingung technischen Handelns ab, die Unsicherheit: Jedes technische Handeln sei mit der Unsicherheit verknüpft, sodass dieser Unsicherheit auch bei jedweder technischer Entwicklung Rechnung getragen werden müsse. Lernen sei eine Umbildung von Kompetenzen, durch menschliches Lernen werde die Kompetenzbildung auf Menschseite verbessert, nicht aber auf der technischen Seite. Die technischen Mittel würden, basierend auf diesen Lerneffekten, ggf. weiter an den Mensch angepasst. Diese historisch gewachsene Anpassung der Technik an den Menschen habe sich mittlerweile geändert, denn nach jeder Nutzererfahrung passe sich die Technik selbst an den Menschen als ihren Nutzer an. Als Beispiel nannte Gransche das Nachschlagen in einem festen, gedruckten Lexikon als zunächst einmal unabänderlicher Quelle. Das Nachschlagen bei einer Internet-Suchmaschine führe hingegen zu einer laufenden Anpassung des Nachschlagewerks an den Menschen. Allein auf Grund des erlernten Wissens der Technik über den Fragenden sei es möglich, dass der Mensch gar nicht mehr auf das Werkzeug zurückgreifen müsse, sondern dieses selbst auf den Menschen zugreife. Das Werkzeug diffundiere so in alle Lebensbereiche und zeige dort verschiedene Effekte. Deutlich werde dies z.B. an der Smart Home-Lösung „Alexa“, die sich immer weiter an den Nutzer anpasse, je öfter er das System nutze. Die Welt werde für den Nutzer durch derlei technische Lösungen zunehmend komfortorientiert, „warm, weich und versorgend“. Dies wirke sich auf die Kompetenzbildung beim Menschen aus, welche gerade Widersprüchlichkeit, Irritation und keinen Komfort voraussetze. Was technische Systeme über den Menschen lernten, bedinge somit zunehmend, welche Welt dem Menschen begegne, indem die technischen Systeme die Welt von sich aus umgestalteten. Eine solche augenscheinlich positive Bequemlichkeit des Menschen sei aber auch mit Risiken verbunden, wie sich z.B. am Falle der sog. „Fake News“ zeige. Die Personalisierung der Technologie führe zunehmend zu einem bequemen Konsumenten, der von sich aus die gesellschaftliche Entwicklung nicht mehr kritisch hinterfrage. Dies wiederum habe eine zunehmende Problematisierung der demokratischen Meinungsbildung zur Folge. Auch sei die Anpassung von Computersystemen an den Menschen keine Ausrichtung an seinen tatsächlichen Charakter, sondern nur eine zweifelhafte Ausrichtung an „digital guesses“, eines ungenauen digitalen Abbilds des Nutzers. Gransche kommt in seinem Vortrag zu dem Ergebnis, dass der komfortorientierte Mensch zunehmend auf die Entwicklung der Technik denn auf die Entwicklung der eigenen Kompetenzen setzt. Mittelfristig führe dies zu einer Annäherung des realen Menschen an die „digital guesses“, langfristig habe dies die Ununterscheidbarkeit des technischen Menschen und des wirklichen Menschen zur Folge, der unfähig sei, mit seiner eigenen Umwelt zu interagieren und dadurch „wunschlos“ werde. Der Datenschutz könne den Betroffenen hiervor bewahren, indem die Informationssammlung durch Computer eingeschränkt, das maschinelle Lernen hierdurch begrenzt und dadurch der reale Mensch auch in Zukunft noch bewahrt werde.

Alfred Büllesbach rundete die gelungene Veranstaltung mit einem Rekurs auf Hartmut Rosa (Resonanz, S. 732)  ab: „Nicht das Erobern und Kontrollieren von Welt, sondern ihr Vernehmbarmachen gilt es in den Fokus des Handelns  zu rücken, der Modus politischen Handelns  sollte von der Intention des kollektiven Gestaltens des Gemeinwesens bestimmt sein.“

Dr. Dennis-Kenji Kipker ist wissenschaftlicher Geschäftsführer am Institut für Informations-, Gesundheits-, und Medizinrecht (IGMR) an der Universität Bremen und Mitglied im Vorstand der Europäischen Akademie für Informationsfreiheit und Datenschutz (EAID) in Berlin.