CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

KI-Ethik als Hochregulation

Prof. Dr. Markus Gabriel ist Inhaber des Lehrstuhls für Erkenntnistheorie, Philosophie der Neuzeit und Gegenwart an der Rheinischen Friedrich-Wilhelms-Universität Bonn.

KIR 2025, 45   Das äußerst dynamische Forschungsfeld der Ethik der Künstlichen Intelligenz (KI) bewegt sich ungebrochen weiterhin zwischen zwei Extrempositionen, die von einschlägigen Experten befeuert werden (Einen guten Überblick über die Dimensionen der Debatte liefern die Beiträge in Liao, Ethics of Artificial Intelligence, 2020). Während die einen die Chancen der mit der KI-Revolution verbundenen sozialen, politischen und ökonomischen Transformationen für unbegrenzt halten, argumentieren die anderen dafür, dass die KI-Revolution existenzielle Risiken maximaler Größenordnung mit sich bringt. Beide Maximalpositionen werden von Geoffrey Evererst Hinton einerseits und Sir Demis Hassabis andererseits – beide Nobelpreisträger (Physik bzw. Chemie) 2024 – aus durchaus realistischen Gründen bezogen. So schätzt Hinton die Wahrscheinlichkeit, dass KI-Systeme uns noch in diesem Jahrhundert zerstören werden, laut The Guardian derzeit auf 10–20% ein (abrufbar unter: https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-ov er-next-30-years), während Hassabis in der KI eine grundsätzliche Wohltat erkennt, sofern wir die Gefahren durch Regulierung beschränken (abrufbar unter: https://www.theguardian.com/technology/2023/oct/24/ai-risk-climate-crisis-google-deepmind-chi ef-demis-hassabis-regulation). Gleichzeitig schlägt Hinton, wie viele andere, vor, die sozial disruptiven Folgen der KI-Revolution durch ein bedingungsloses Grundeinkommen abzufedern, das durch die Automatisierung erwirtschaftet wird. Die einen fordern möglichst unregulierte Forschung und entsprechende industrielle Produktion von KI-Systemen, während die anderen so weit gehen, ein Moratorium für die KI-Entwicklung zu fordern (vgl. die Statements und Argumente auf https://moratorium.ai).

Fest steht nur, dass alle Prognosen der Verlaufsform der KI-Revolution spekulativ bleiben müssen, weil die weiteren zu erwartenden Sprünge naturgemäß dem Innovationsmuster der „Creative Destruction“ (Schumpeter, Capitalism, Socialism and Democracy, 1950, S. 83. Schumpeter spricht an derselben Stelle auch von „industrial mutation“) folgen werden. Es ist kein Zufall, dass vor diesem Hintergrund in jüngster Zeit vermehrt wirtschaftspolitisch libertäre Positionen auftreten, weil jede Regulierung nicht nur immer schon zu spät kommt, sondern sich der dynamischen epistemischen Schwierigkeit gegenübersieht, dass die nächste Volte der KI-Forschung und -Produktion normative Probleme generiert, deren Bewertung sich auf keine bereits bewährten Prinzipien stützen kann.

Um ein wenig Klarheit in die mögliche weitere Entwicklung der KI-Ethik zu bringen, möchte ich zunächst drei Wellen der KI-Ethik unterscheiden, die jeweils auch mit Regulierungsangeboten verbunden waren, die teilweise juristische geworden sind (Zur Klassifizierung von Wellen der KI-Ethik vgl. auch Bolte/van Wynsberghe, Sustainable AI and the Third Wave of AI Ethics: A Structural Turn, AI Ethics (2024), abrufbar unter: https://doi.org/10.1007/s43681-024-00522-6; zur juristischen Wirklichkeit in der EU vgl. die KI-Verordnung, VO (EU) 2024/1689 des Europäischen Parlaments und des Rates v. 13.6.2024 zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz und zur Änderung der Verordnungen (EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU) 2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828.). Anschließend unterbreite ich den Vorschlag, die KI-Ethik-Debatte in Richtung der Hochregulierung zu lenken, um auf diese Weise Wertschöpfung durch partielle Automatisierung mit Ethik zu verknüpfen.

Die erste Welle der KI-Ethik drehte sich um Terminator-Szenarien. KI wurde im Lichte von Technikfolgeabschätzungen daraufhin untersucht, welche existenziellen Risiken ihre Maximalform (Artificial General Intelligence – AGI) mit sich bringt (Das einflussreichste Dokument dieser Phase ist weiterhin Bostrom, Superintelligence: Paths, Dangers, Strategies, 2024). Dabei wurden Gedankenexperimente entwickelt, die zeigen konnten, dass eine ethische Begrenzung von KI-Systemen, die sie für den menschlichen Gebrauch wünschenswert macht, nicht vorab programmierbar ist. Dies ist als „value alignment problem“ bekannt (Die bisher überzeugendste technische Lösung stammt von Russell, Human Compatible: Artificial Intelligence and the Problem of Control, 2019). Insbesondere verschärft sich dieses Problem dadurch, dass wir keinen Zugang auf unsere (menschlichen) Werturteile insgesamt haben, sodass wir die Prinzipien, nach denen Menschen insgesamt moralisch urteilen, faktisch gar nicht kennen.

Doch selbst wenn wir sie kennten, wäre das prinzipielle Unbestimmtheitsproblem jeder bekannten Ethik nicht gelöst, das darin besteht, dass die Anwendung ethischer Prinzipien in realen Situationen nicht deduktiv aus den Prinzipien abgeleitet werden kann. Das konkrete Urteil ist niemals nur eine Anwendung apriorischer Prinzipien (welcher Ethikform auch immer). Mithin können wir schon deswegen kein KI-System produzieren, das mit unseren Werten „aligned“ ist, weil wir diese erstens gar nicht vollständig kennen und selbst wenn wir sie kennten, damit das Unbestimmtheitsproblem noch nicht gelöst sein kann (vgl. dazu ausführlich Gabriel, Moralische Tatsachen, 2025 (im Erscheinen). Im Fall der KI-Ethik kommt hinzu, dass die relevanten moralischen Tatsachen nicht sinnvoll unter Rekurs auf bereits eingeübte Ethikfigurationen erfasst werden können, da die innovativen KI-Systeme genuin neue ethische Fragen aufwerfen, die nur teilweise unter Rekurs auf bereits bekannte Technikethik behandelbar sind. Das liegt darin, dass Intelligenztechnik konstitutiv sozial disruptiv ist, indem nicht-menschliche Akteure in simulierten Umgebungen auf menschliche Akteure treffen und ihnen in diesen Räumen an Effizienz überlegen sind. Dabei spielt es für die Effizienz der Systeme keine Rolle, ob sie aus schwacher oder starker KI resultiert. Ob die heute in neuen Situationen disruptiv zum Einsatz kommenden Large Language Models (Stichwort: ChatGPT und die Folgen) sprachliche Bedeutung in irgendeinem Sinn verstehen oder dieses Verstehen „nur“ geschickt simuliert wird, wird zunehmend ununterscheidbar.

Die zweite Welle der KI-Ethik ist weniger futuristisch. Sie besteht in der Aufdeckung realer sozialer Ungerechtigkeit in bereits zum Einsatz kommenden KI-Systemen. Dazu gehört der Einsatz der psychologischen und verhaltensökonomischen Bias-Forschung in der KI-Ethik, aber auch die Aufdeckung sozialer Ungerechtigkeit entlang verschiedener intersektionaler Diskriminierungsmuster (ein paradigmatisches Beispiel für fortgeschrittene Forschung auf diesem Feld etwa: Vora/Atanasoski, Surrogate Humanity: Race, Robots, and the Politics of Technological Futures, 2019).

Die dritte Welle der KI-Ethik fügt dem die ökologische Dimension hinzu, was international sichtbar unter dem Label der „sustainable AI“ diskutiert wird (vgl. dazu den Sammelband Gabriel/Haramia/van Wynsberghe, Sustainable A. I. Futures, 2026 (im Erscheinen); Ein Meilenstein dieser Debatte ist Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence, 2021). Diese Dimension geht dabei weiter als der Hinweis, dass die reale materiell-energetische Infrastruktur der KI-Forschung und -Produktion ein Nachhaltigkeitsproblem aufweist, das, wie die ökologische Krise insgesamt, mit geopolitischen Verwerfungen verbunden ist (vgl. dazu Miller, Chip War: The Fight for the World’s Most Critical Technology, 2022). Nachhaltigkeit ist nämlich eine ökosoziale Kategorie, welche die Koevolution hybrider Systeme beschreibt, dh solcher Systeme, die gerade nicht nur „natürlich“ sind, sondern technologische und damit auch soziale Dimensionen aufweisen, die untrennbar mit ihren natürlichen (materiell-energetischen) Aspekten verschränkt sind.

Vor diesem Hintergrund möchte ich eine weitere Option ins Spiel bringen, die Elemente aller drei Wellen der KI-Ethik aufgreift. Diese Option fasst KI-Ethik nicht als Instrument der Einhegung von (letztlich nicht wirklich berechenbaren) Risiken der KI-Revolution auf, sondern schlägt stattdessen vor, die Regulierung des KI-Betriebs prinzipiell als Hochregulation zu verstehen (vgl. dazu Gabriel, Gutes tun. Wie der ethische Kapitalismus die Demokratie retten kann, 2024, S. 233 ff.). Ich danke Walter Christoph Zimmerli für den Hinweis, dass mein Vorschlag einer ethischen KI dem Muster einer Hochregulation folgt.

Damit meine ich das Folgende. Ethische Erkenntnis ist immer auch Erkenntnis dessen, was uns guttut. Diese ökonomische Dimension gehört zwar nicht zum Kern des moralischen Begriffs des Guten, wird von diesem aber begünstigt. Das moralisch Gute und das menschliche well-being, das in gegenwärtigen Debatten über human flourishing untersucht wird, sind naturgemäß nicht inkompatibel (vgl. Zwitter, Flourishing, 2025 (im Erscheinen); vgl. auch den Ansatz einer Lebensethik bei Brosius-Gersdorf et al., Rechtskonflikte/Woopen, 2024, S. 289 ff.). Vielmehr überschneiden sie sich signifikant, wie jüngere Forschung auf dem Gebiet der „new moral political economy“ zeigt (vgl. dazu Levi/Farrell, „Creating a New Moral Political Economy”, Dædalus. Journal of the American Academy of Arts & Sciences 151/1 (2023)). Moralische und ökonomische Werte sind zwar kategorial verschieden, überlappen sich aber real, sodass ethische Erkenntnis ökonometrisch partiell messbar geworden ist.

Nun ist die KI-Revolution u. a. deswegen so erfolgreich und disruptiv, weil KI-Systeme existieren, die Muster in großen Datensätzen schneller und effizienter als jede Menschengruppe identifizieren, wodurch KI-Systeme in vielen Tätigkeiten der menschlichen Intelligenz bereits unbestimmt weit überlegen sind. Das ist dadurch möglich, dass KI-Systeme Modelle natürlicher Intelligenz sind, dh solche Systeme, die ein Verhalten zeigen, das wir in einem bestimmten Sinn als intelligent bezeichnen würden, wenn es von einem Menschen (oder einem anderen Lebewesen) ausgeübt würde (Zu diesem auf Alan Turing zurückgehenden Intelligenzbegriff der KI-Forschung vgl. Gabriel, Der Sinn des Denkens, 2018). Das bedeutet, dass es prinzipiell möglich und, wie ich gleich argumentieren werde auch normativ wünschenswert ist, KI-Systeme zu entwickeln, die ethische Erkenntnis und moralische Werturteile modellieren. Diese Systeme wären damit nicht selbst moralische Akteure, was, wie die erste Welle der KI-Ethik gezeigt hat, nicht realisierbar ist. Sie wären vielmehr eine Art Spiegelung unserer moralischen Praktiken. Diese KI-Systeme hätten das Potenzial, unsere ethische Erkenntnis zu verbessern, womit ihre Kreation ipso facto im moralischen Sinn normativ wünschenswert, womöglich sogar geboten ist.

Solche KI-Systeme assistieren den hybriden Wirklichkeiten des KI-Gebrauchs (in dem immer Mensch und Maschine interagieren und nicht mehr vollständig voneinander trennbar sind) bereits. Ihre nächste Funktion wäre eine Optimierung unserer Urteilspraktiken, nicht ihre Ersetzung durch Surrogate. Prinzipiell ist unsere moralische Autonomie nämlich nicht mit ihrer vollständigen Automatisierung vereinbar, weil Freiheit nicht algorithmisch modelliert werden kann. Daher übrigens eine bisher noch nicht hinreichend berücksichtige Sorge, die Kahnemann, Sibony und Sunstein erkannt haben (vgl. dazu Kahnemann/Sibony/Sunstein, Noise: A Flaw in Human Judgment, 2021). Die wünschenswerte Optimierung unserer Urteilspraxis (was hier insbesondere das juristische Feld einschließt) durch algorithmische Noise-Reduktion droht den Stand des moralischen Fortschritts einzufrieren: „noise might be essential to accomodate new values and hence to allow moral and political evolution. If we eliminate noise, we might reduce our ability to respond when moral and political commitments move in new and unexpected directions. A noise-free system might freeze existing values.“ (Kahnemann/ Sibony/Sunstein, Noise: A Flaw in Human Judgment, 2021, S. 328). Die KI-Revolution erzeugt auf diese Weise ein bisher nicht bekanntes Optimierungsparadox, das darin besteht, dass einige Optimierungen nicht wünschenswert zu sein scheinen.

Ethische KI-Systeme, wie ich sie hier theoretisch skizziere, ohne die vielfältigen Anwendungen, die es freilich auf allen Gebieten gibt, im Einzelnen zu diskutieren und zu bewerten, regulieren auf diese Weise nach oben: Sie befördern moralischen Fortschritt und tragen durch ihre konkrete Anwendung zu positivem sozialem Wandel bei. Dieser Fall muss in jeder KI-Ethik berücksichtigt werden, weil der technowissenschaftliche und der mit dieser verbundene sozioökonomische Fortschritt der KI-Revolution unbestreitbar ist. Ethisch zu bewerten (und normativ durch Regulierung einzuhegen) ist dabei nicht nur der jeweilige Einsatz von bereits gegebenen KI-Systemen, sondern bereits die Produktlinie möglicher neuer KI-Systeme. Denn es besteht begründete Hoffnung darauf, dass KI-Systeme, die zu moralischem Fortschritt beitragen, Kriterien der ökosozialen Nachhaltigkeit erfüllen, wozu freilich auch der Einsatz von KI-Systemen zur Optimierung ihrer eigenen Energiebilanz gehört (vgl. dazu etwa das Anwendungsprojekt in Kooperation mit NTT (Nippon Telegraph and Telephone) des transdisziplinären Kyoto Institute of Philosophy, abrufbar unter: https://k-philo.org). Eine fortschreitende Erkenntnis der ethischen Rahmenbedingungen rasant evolvierender KI-Systeme ist prinzipiell mit moralischem Fortschritt koppelbar, ein moderner Prozess der technologischen Innovation, der großflächig seit der industriellen Revolution beobachtbar ist. Anders als die industrielle Revolution geschieht die KI-Revolution immer schon reflexiv: Die Risikobewertung und die technologische Disruption finden gleichzeitig statt. Darin liegt die Chance einer KI-Ethik, die zur Hochregulation und nicht nur zur regulierenden Einschränkung des KI-Gebrauchs beiträgt, was sich freilich nicht ausschließen darf. Denn die ersten Wellen der KI-Ethik haben begründeten Anlass zu Regulierungsprogrammen gegeben, die deswegen auch weltweit (keineswegs nur in Europa) erwogen werden.

Mein normativer Vorschlag lautet, KI-Ethik als Hochregulation als Komplement der Regulierungsdebatte zu verstehen, was transdisziplinäre Forschungsfelder eröffnet, die auf der Höhe der KI-Entwicklung mitwirken können, ohne sich dem Verdacht einer weltfremden Technophobie ausgesetzt zu sehen.

Für die Schnittstelle von Ethik und Recht bedeutet dies, dass Rahmenbedingungen eines fairen Wettbewerbs geschaffen werden können, dessen Ziel technologischer Fortschritt ist, der Kriterien normativer Wünschbarkeit erfüllt. Dabei muss allerdings dringend Sorge für den Fortbestand des liberalen demokratischen Rechtsstaats getragen werden, in dem technologischer Fortschritt stattfindet, weil dieser derzeit durch die KI-Revolution auf noch unabsehbare Weise in Gefahr gerät, soziopolitisch abgeschliffen zu werden (vgl. Coeckelbergh, Why AI Undermines Democracy and What To Do About It, 2024).

Darin liegt eine heutige Gefahr des Technoliberalismus, der durch die KI-Revolution seine Gangart geändert hat, was in diesen Tagen auf der Weltbühne in der Person Elon Musks verkörpert wird. Unter dem Deckmantel des sicherlich wünschenswerten Bürokratieabbaus wird der Rechtsstaat unterminiert, ein Vorgang, der von den digital orchestrierten Erregungsmustern der sozialen Netzwerke getrieben wird, die von KI-Systemen unterstützt werden. Dieser Gefahr begegnet man effektiv nicht durch ihre Benennung und Kritik, sondern dadurch, dass ein ethischer, progressiver Gebrauch der digitalen Infrastruktur (etwa durch Schaffung neuer sozialer Netzwerke, die mit ethischer KI kooperieren) gemacht wird. Das wäre dann eine Aufgabe für eine unternehmerisch hochregulierte Gesellschaft, die Werte nicht nur als Slogan der Abwehr autoritärer Hybridangriffe (aus welcher Weltgegend auch immer), sondern als Leitfäden technologischer Innovation begriffe, die einerseits Negativeffekte runter- und andererseits positive Effekte hochzuregulieren beabsichtigt, was Sache kommender Wellen der angewandten KI-Ethik sein wird.

Anzeigen

KIR-Testabo

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü