Marie-Theres Tinnefeld

Künstliche Intelligenz - ein (digitales) Glasperlenspiel?


Marie-Theres Tinnefeld ist Professorin für Datenschutz und Wirtschaftsrecht an der Hochschule München und Mitglied des Wissenschaftsbeirats der ZD.

ZD 2019, 333   Der Hesse-Propagandist Johannes Heiner sprach davon, dass er zehn Jahre gebraucht habe, um zu verstehen, was „Glasperlenspiel“ im vielschichtigen Werk von Hermann Hesse bedeutet. Er interpretiert das Glasperlenspiel als „das Spiel auf der großen Orgel aller Kulturen ...“. Es handle sich um ein globales Kulturspiel, weil in der Haltung des Spiels der Mensch frei sei, er der werde, der er ist. Dieser Begriff des Glasperlenspiels ist im digitalen Zeitalter aktueller denn je. Der Pionier der Computer Science, Joseph Weizenbaum, hat die jahrhundertealte kulturbedingte Existenz des Menschen gedeutet und betont, dass der Mensch kein Annex technischer Entwicklung ist (vgl. Joseph Weizenbaum im Gespräch mit seiner Biografin Gunna Wendt: Wo sind sie, die Inseln der Vernunft im Cyberstrom?, 2006). In Weizenbaums Werk taucht immer wieder die Utopie vom ganzen, vom freien Menschen auf. Nach langer, intensiver Beschäftigung mit algorithmischen Maschinen traf er die deutliche Aussage, dass Menschen weder als Maschinen interpretiert werden können, noch aus ethischen Gründen in dieser Form jemals beurteilt werden dürfen. Zu seinen Kernaussagen gehört, dass die einzelne Person mit ihren vielfältigen Eigenschaften und widersprüchlichen Neigungen als menschliches Wesen zu achten ist. Er stellt gleichsam i.R.e. digitalen Glasperlenspiels die kulturelle, soziale und politische Forderung, eine Künstliche Intelligenz (KI) ethisch und rechtlich so zu gestalten, dass sie der freien Entfaltung des Menschen dient und damit auch zur Humanisierung der Welt beiträgt. Dieser Prozess kann allerdings nur gelingen, wenn er an die Grund- und Menschenrechte gebunden ist. In diesem Zusammenhang spielt insbesondere das Recht auf Privatheit und Datenschutz eine bedeutende Rolle.

Können lernende Roboter Subjekte mit Verantwortung sein?

Julian Nida-Rümelin und Nathalie Weidenfels (Digitaler Humanismus. Eine Ethik für das Zeitalter der Künstlichen Intelligenz, 3. Aufl. 2018) hinterfragen den Mythos der Maschine in Menschengestalt. In der Antike ist es der Mythos des Titanen Prometheus, der ohne die Erlaubnis von Zeus denkende und fühlende Lebewesen erschaffen hat und dafür vom Göttervater bitter bestraft wird; im Mittelalter ist der Golem von Prag, eine durch Zauber zum Leben erweckte Gestalt aus Lehm, die jede Art von Aufträgen ausführen kann, einschließlich dämonische. Im 20. und 21. Jahrhundert ist die Rede von einer belebten Puppe oder einer Freundschaft zwischen Mensch und Maschine. Im Unterschied zu früheren Jahrhunderten vermuten Nida-Rümelin und Weidenfels, dass die Mythen im Kern unverändert bleiben und lediglich durch konkrete technologische Optionen wiederbelebt werden. Das wirft im heutigen „Glasperlenspiel“ die Frage nach den Folgen auf, die die Schaffung lernender Roboter für die Menschheit haben kann. Können Roboter Menschen an Denk- und Handlungskompetenz übertreffen? Was spricht dafür - so fragt Nida-Rümelin -, dass der smarte Roboter mit einer „starken KI“ über Bewusstsein verfügen, selbstständig Entscheidungen treffen, Ziele verfolgen kann und seine Leistungen nicht nur Simulationen personaler Kompetenzen sind? Auf den Spuren von Weizenbaum führt der Technikphilosoph Klaus Kornwachs dazu aus: „Die Annahme, dass Roboter eines Tages (genuine) Subjekte sein könnten mit Zielsetzungen, die durch unüberwachtes massives Lernen entstehen, und die uns, da wir ihr Zustandekommen nicht mehr verfolgen können, als eigenständig erscheinen müssen, verwechselt Simulation (oder besser Mimikry) mit genuiner Erzeugung kognitiver Leistungen“ (Kornwachs, DuD 2019, 332, 336). Kornwachs fächert seine Auffassung differenziert auf, begründet einen spezifischen ethischen Umgang mit Robotern und den anfallenden Daten, die Menschen zu verantworten haben.

 

Hambacher Erklärung zur Künstlichen Intelligenz

In der Entschließung der 97. Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder v. 3.4.2019 fordern deutsche Datenschützer eine Einbettung der KI in den Datenschutzrahmen der EU, etwa bei der Forschung und Therapie oder im Arbeitsleben. Denn auch für KI-Systeme gelten die Grundsätze für die Verarbeitung personenbezogener Daten (Art. 5 DS-GVO), die in die Technikgestaltung der KI-Systeme frühzeitig eingebracht werden müssen (Art. 25 DS-GVO). Die Datenschutzaufsichtsbehörden begründen in der Erklärung die menschenrechtlichen Forderungen, die Datenschutz und Technik in digitaler Zeit bestimmen:

■      KI darf Menschen nicht zum Objekt machen;

■      KI darf nur für verfassungsrechtlich legitimierte Zwecke eingesetzt werden und das Zweckbindungsgebot nicht aufheben;

      KI muss transparent, nachvollziehbar und erklärbar sein;

■      KI muss Diskriminierungen vermeiden;

■      für KI gilt der Grundsatz der Datenminimierung;

■      KI braucht Verantwortlichkeiten;

■      KI benötigt technische und organisatorische Standards.

Mit anderen Worten: KI muss datenschutzkonform gesteuert werden. Dabei geht es letztlich aus philosophischer und ethischer Sicht um die oben bereits angesprochene Frage, ob das Menschenbild des GG und der GRCh von einem freien und verantwortlichen Wesen ausgeht, das nicht determiniert ist, sondern sein Handeln von Überzeugungen und Gründen leiten lassen kann (s.a. Tinnefeld, in: Tinnefeld et al., Prolog, Einführung in das Datenschutzrecht, 7. Aufl. 2019). Das heißt insbesondere auch, dass es keinen Einsatz der lernenden KI geben kann, der Entscheidungen ersetzen darf. Der Mensch muss ein programmiertes intelligentes System überwachen und darin eingreifen können (z.B. bei ferngesteuerten Drohnen als Waffe oder bei selbstfahrenden (autonomen) Autos).

 

OECD-Empfehlung für Künstliche Intelligenz

Im Jahre 1980 hat die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), eine westliche Organisation von Industrieländern, die über den europäischen Bereich hinausreicht, das erste internationale Dokument zum Datenschutz geschaffen. Die Leitlinien empfehlen den Industriestaaten acht datenschutzkonforme und demokratische Grundsätze, die bei der Verarbeitung von personenbezogenen Daten zu beachten sind (begrenzte Datenerhebung, Zweckbestimmung, Nutzungsbegrenzung, Sicherung, Offenheit/Transparenz, Mitspracherecht, Rechenschaftspflicht). Die Leitlinien sind zwar völkerrechtlich nicht verbindlich, besitzen aber eine bedeutende Ausstrahlung auf das Recht in Industriestaaten.

Nunmehr hat die OECD auf ihrer Jahrestagung am 22.5.2019 in Paris Prinzipien für die KI in Form einer Empfehlung formuliert, der sich bereits 42 Staaten angeschlossen haben. Die OECD setzt sich mit KI-Strategien auf Grund von Fehlentwicklungen bei der Entstehung von Plattform-Ökonomie in der Industrie 4.0, die private Monopole mittels KI ohne Rücksicht auf die Zivilgesellschaft und nur zur eigenen Gewinnmaximierung gestaltet, auseinander. Sie fordert aus aktuellem Anlass, dass intelligente Maschinen zukünftig nur noch auf der Basis von ethischen Prinzipien mit dem Ziel entwickelt werden sollen, dass eine Maschine niemals über den Menschen bestimmen darf. Die fünf Grundprinzipien lauten:

1. KI soll erstens allen Menschen überall auf der Welt dienen, indem sie Wohlstand für alle, nachhaltige Entwicklung und gute Lebensbedingungen fördert.

2. KI-Systeme sollen so gestaltet werden, dass sie Vorrang des Gesetzes, Menschenrechte, demokratische Werte und Gleichberechtigung respektieren. Entsprechende Sicherheiten sollen in die Systeme eingebaut werden. Z.B. soll es möglich sein, dass Menschen eingreifen können, sollten intelligente Maschinen diesen Rahmen verletzen.

3. Rund um KI-Systeme soll Transparenz geschaffen werden, damit Menschen die Ergebnisse von KI verstehen und eingreifen können.

4. KI-Systeme müssen während ihres gesamten Produktzyklus Sicherheit gewährleisten: Mögliche Risiken sollen kontinuierlich überwacht und gemanagt werden.

5. Organisationen und Einzelpersonen, die KI entwickeln und erweitern, sollen für das ordnungsgemäße Funktionieren verantwortlich gemacht werden.

Im Kontext dieser Grundprinzipien ist jeweils Freiheit und Sicherheit für die betroffene Person zu gewährleisten. Damit ist auch gesagt, dass es bei einem Einsatz etwa von intelligenten Robotern keine Verantwortungslücken geben darf. Die Verantwortung für eine negative Folge der Aktion einer KI muss immer von einer Person übernommen werden können. Damit KI nicht im Elfenbeinturm und fern der Realität diskutiert wird, hat die OECD für Regierungen detaillierte weitere Forderungen in die Empfehlung aufgenommen.

 

Fazit

KI-Systeme sind sehr komplex. Die Algorithmen, die etwa das Verhalten eines Roboters steuern, entsprechen nicht menschlichen Denkvorgängen und menschlichem Handeln. Allenfalls simulieren sie diese (Kornwachs, a.a.O.). Der Mensch muss als Ganzes gesehen werden, die Vielfalt seiner mentalen Eigenschaften, seiner Intentionen, seiner Kultur kann keine KI nachbilden (Weizenbaum, a.a.O.). Es kann auch nicht für alle Fallsituationen festgelegt werden, wie Fragen der KI zu beantworten sind. Im Vordergrund muss die Sicherung individueller Rechte und Freiheiten in einer demokratisch ausgerichteten Zivilgesellschaft stehen. Dabei sind die Bedingungen verantwortlichen Handelns und mögliche negative Folgen etwa beim Einsatz von intelligenten (smarten) Robotern zumindest theoretisch vorab zusammenzufassen (Kornwachs, a.a.O.). Die datenschutzkonformen Prinzipien in der Hambacher Erklärung sowie die ethisch begründeten Handlungsanleitungen der OECD, die die Organisation speziell für Industriestaaten und deren Regierungen aufgestellt hat, sind ein wichtiger Schritt in Richtung der Frage: Was sollen wir tun? Wie kann der Mensch das digitale Glasperlenspiel so erfassen, dass er sein eigenes Leben leben und gleichzeitig solidarisch verantwortlich selbst bestimmen kann? In diesem Sinn kann mit Weizenbaum gesagt werden, dass die Vorstellung von der Ohnmacht des Menschen eine gefährliche Illusion ist. Er hielt sie für die gefährlichste, die ein Mensch überhaupt haben kann.