Prof. Dr. Markus Gabriel ist Inhaber des Lehrstuhls für Erkenntnistheorie, Philosophie der Neuzeit und Gegenwart an der Rheinischen Friedrich-Wilhelms-Universität Bonn.
KIR 2025, 45 Das äußerst dynamische Forschungsfeld der Ethik der Künstlichen Intelligenz (KI) bewegt sich ungebrochen weiterhin
zwischen zwei Extrempositionen, die von einschlägigen Experten befeuert werden (Einen guten Überblick über die
Dimensionen der Debatte liefern die Beiträge in Liao, Ethics of Artificial Intelligence, 2020). Während die einen die
Chancen der mit der KI-Revolution verbundenen sozialen, politischen und ökonomischen Transformationen für unbegrenzt halten, argumentieren die anderen dafür, dass die KI-Revolution existenzielle Risiken maximaler Größenordnung mit sich
bringt. Beide Maximalpositionen werden von Geoffrey Evererst Hinton einerseits und Sir Demis Hassabis andererseits – beide
Nobelpreisträger (Physik bzw. Chemie) 2024 – aus durchaus realistischen Gründen bezogen. So schätzt Hinton die Wahrscheinlichkeit, dass KI-Systeme uns noch in diesem Jahrhundert zerstören werden, laut The Guardian derzeit auf 10–20% ein (abrufbar unter:
https://www.theguardian.com/technology/2024/dec/27/godfather-of-ai-raises-odds-of-the-technology-wiping-out-humanity-ov
er-next-30-years), während Hassabis in der KI eine grundsätzliche Wohltat erkennt, sofern wir die Gefahren durch Regulierung
beschränken (abrufbar unter: https://www.theguardian.com/technology/2023/oct/24/ai-risk-climate-crisis-google-deepmind-chi
ef-demis-hassabis-regulation). Gleichzeitig schlägt Hinton, wie viele andere, vor, die sozial disruptiven Folgen der KI-Revolution
durch ein bedingungsloses Grundeinkommen abzufedern, das durch die Automatisierung erwirtschaftet wird. Die einen fordern
möglichst unregulierte Forschung und entsprechende industrielle Produktion von KI-Systemen, während die anderen so weit
gehen, ein Moratorium für die KI-Entwicklung zu fordern (vgl. die Statements und Argumente auf https://moratorium.ai).
Fest steht nur, dass alle Prognosen der Verlaufsform der KI-Revolution spekulativ bleiben müssen, weil die weiteren zu
erwartenden Sprünge naturgemäß dem Innovationsmuster der „Creative Destruction“ (Schumpeter, Capitalism, Socialism and
Democracy, 1950, S. 83. Schumpeter spricht an derselben Stelle auch von „industrial mutation“) folgen werden. Es ist kein Zufall,
dass vor diesem Hintergrund in jüngster Zeit vermehrt wirtschaftspolitisch libertäre Positionen auftreten, weil jede Regulierung
nicht nur immer schon zu spät kommt, sondern sich der dynamischen epistemischen Schwierigkeit gegenübersieht, dass die
nächste Volte der KI-Forschung und -Produktion normative Probleme generiert, deren Bewertung sich auf keine bereits
bewährten Prinzipien stützen kann.
Um ein wenig Klarheit in die mögliche weitere Entwicklung der KI-Ethik zu bringen, möchte ich zunächst drei Wellen der KI-Ethik unterscheiden, die jeweils auch mit Regulierungsangeboten verbunden waren, die teilweise juristische geworden sind (Zur Klassifizierung von Wellen der KI-Ethik
vgl. auch Bolte/van Wynsberghe, Sustainable AI and the Third
Wave of AI Ethics: A Structural Turn, AI Ethics (2024), abrufbar
unter: https://doi.org/10.1007/s43681-024-00522-6; zur juristischen Wirklichkeit in der EU vgl. die KI-Verordnung, VO (EU)
2024/1689 des Europäischen Parlaments und des Rates v.
13.6.2024 zur Festlegung harmonisierter Vorschriften für
künstliche Intelligenz und zur Änderung der Verordnungen
(EG) Nr. 300/2008, (EU) Nr. 167/2013, (EU) Nr. 168/2013, (EU)
2018/858, (EU) 2018/1139 und (EU) 2019/2144 sowie der
Richtlinien 2014/90/EU, (EU) 2016/797 und (EU) 2020/1828.).
Anschließend unterbreite ich den Vorschlag, die KI-Ethik-Debatte in Richtung der Hochregulierung zu lenken, um auf
diese Weise Wertschöpfung durch partielle Automatisierung
mit Ethik zu verknüpfen.
Die erste Welle der KI-Ethik drehte sich um Terminator-Szenarien. KI wurde im Lichte von Technikfolgeabschätzungen daraufhin untersucht, welche existenziellen Risiken ihre Maximalform (Artificial General Intelligence – AGI) mit sich bringt (Das
einflussreichste Dokument dieser Phase ist weiterhin Bostrom,
Superintelligence: Paths, Dangers, Strategies, 2024). Dabei
wurden Gedankenexperimente entwickelt, die zeigen konnten, dass eine ethische Begrenzung von KI-Systemen, die sie
für den menschlichen Gebrauch wünschenswert macht, nicht
vorab programmierbar ist. Dies ist als „value alignment problem“ bekannt (Die bisher überzeugendste technische Lösung
stammt von Russell, Human Compatible: Artificial Intelligence
and the Problem of Control, 2019). Insbesondere verschärft
sich dieses Problem dadurch, dass wir keinen Zugang auf
unsere (menschlichen) Werturteile insgesamt haben, sodass
wir die Prinzipien, nach denen Menschen insgesamt moralisch
urteilen, faktisch gar nicht kennen.
Doch selbst wenn wir sie kennten, wäre das prinzipielle
Unbestimmtheitsproblem jeder bekannten Ethik nicht gelöst,
das darin besteht, dass die Anwendung ethischer Prinzipien
in realen Situationen nicht deduktiv aus den Prinzipien abgeleitet werden kann. Das konkrete Urteil ist niemals nur eine
Anwendung apriorischer Prinzipien (welcher Ethikform auch
immer). Mithin können wir schon deswegen kein KI-System
produzieren, das mit unseren Werten „aligned“ ist, weil wir
diese erstens gar nicht vollständig kennen und selbst wenn
wir sie kennten, damit das Unbestimmtheitsproblem noch
nicht gelöst sein kann (vgl. dazu ausführlich Gabriel, Moralische Tatsachen, 2025 (im Erscheinen). Im Fall der KI-Ethik
kommt hinzu, dass die relevanten moralischen Tatsachen
nicht sinnvoll unter Rekurs auf bereits eingeübte Ethikfigurationen erfasst werden können, da die innovativen KI-Systeme
genuin neue ethische Fragen aufwerfen, die nur teilweise
unter Rekurs auf bereits bekannte Technikethik behandelbar
sind. Das liegt darin, dass Intelligenztechnik konstitutiv sozial
disruptiv ist, indem nicht-menschliche Akteure in simulierten
Umgebungen auf menschliche Akteure treffen und ihnen in
diesen Räumen an Effizienz überlegen sind. Dabei spielt es
für die Effizienz der Systeme keine Rolle, ob sie aus schwacher oder starker KI resultiert. Ob die heute in neuen Situationen disruptiv zum Einsatz kommenden Large Language
Models (Stichwort: ChatGPT und die Folgen) sprachliche
Bedeutung in irgendeinem Sinn verstehen oder dieses Verstehen „nur“ geschickt simuliert wird, wird zunehmend ununterscheidbar.
Die zweite Welle der KI-Ethik ist weniger futuristisch. Sie besteht in der Aufdeckung realer sozialer Ungerechtigkeit in
bereits zum Einsatz kommenden KI-Systemen. Dazu gehört
der Einsatz der psychologischen und verhaltensökonomischen Bias-Forschung in der KI-Ethik, aber auch die Aufdeckung sozialer Ungerechtigkeit entlang verschiedener intersektionaler Diskriminierungsmuster (ein paradigmatisches Beispiel für fortgeschrittene Forschung auf diesem Feld etwa:
Vora/Atanasoski, Surrogate Humanity: Race, Robots, and the
Politics of Technological Futures, 2019).
Die dritte Welle der KI-Ethik fügt dem die ökologische Dimension hinzu, was international sichtbar unter dem Label der
„sustainable AI“ diskutiert wird (vgl. dazu den Sammelband
Gabriel/Haramia/van Wynsberghe, Sustainable A. I. Futures,
2026 (im Erscheinen); Ein Meilenstein dieser Debatte ist Crawford, Atlas of AI: Power, Politics, and the Planetary Costs of
Artificial Intelligence, 2021). Diese Dimension geht dabei weiter als der Hinweis, dass die reale materiell-energetische Infrastruktur der KI-Forschung und -Produktion ein Nachhaltigkeitsproblem aufweist, das, wie die ökologische Krise insgesamt, mit geopolitischen Verwerfungen verbunden ist (vgl.
dazu Miller, Chip War: The Fight for the World’s Most Critical
Technology, 2022). Nachhaltigkeit ist nämlich eine ökosoziale
Kategorie, welche die Koevolution hybrider Systeme beschreibt, dh solcher Systeme, die gerade nicht nur „natürlich“
sind, sondern technologische und damit auch soziale Dimensionen aufweisen, die untrennbar mit ihren natürlichen (materiell-energetischen) Aspekten verschränkt sind.
Vor diesem Hintergrund möchte ich eine weitere Option ins
Spiel bringen, die Elemente aller drei Wellen der KI-Ethik aufgreift. Diese Option fasst KI-Ethik nicht als Instrument der
Einhegung von (letztlich nicht wirklich berechenbaren) Risiken
der KI-Revolution auf, sondern schlägt stattdessen vor, die
Regulierung des KI-Betriebs prinzipiell als Hochregulation zu
verstehen (vgl. dazu Gabriel, Gutes tun. Wie der ethische
Kapitalismus die Demokratie retten kann, 2024, S. 233 ff.). Ich
danke Walter Christoph Zimmerli für den Hinweis, dass mein
Vorschlag einer ethischen KI dem Muster einer Hochregulation folgt.
Damit meine ich das Folgende. Ethische Erkenntnis ist immer
auch Erkenntnis dessen, was uns guttut. Diese ökonomische
Dimension gehört zwar nicht zum Kern des moralischen Begriffs des Guten, wird von diesem aber begünstigt. Das moralisch Gute und das menschliche well-being, das in gegenwärtigen Debatten über human flourishing untersucht wird,
sind naturgemäß nicht inkompatibel (vgl. Zwitter, Flourishing,
2025 (im Erscheinen); vgl. auch den Ansatz einer Lebensethik
bei Brosius-Gersdorf et al., Rechtskonflikte/Woopen, 2024,
S. 289 ff.). Vielmehr überschneiden sie sich signifikant, wie
jüngere Forschung auf dem Gebiet der „new moral political
economy“ zeigt (vgl. dazu Levi/Farrell, „Creating a New Moral
Political Economy”, Dædalus. Journal of the American Academy of Arts & Sciences 151/1 (2023)). Moralische und ökonomische Werte sind zwar kategorial verschieden, überlappen sich
aber real, sodass ethische Erkenntnis ökonometrisch partiell
messbar geworden ist.
Nun ist die KI-Revolution u. a. deswegen so erfolgreich und
disruptiv, weil KI-Systeme existieren, die Muster in großen
Datensätzen schneller und effizienter als jede Menschengruppe identifizieren, wodurch KI-Systeme in vielen Tätigkeiten der
menschlichen Intelligenz bereits unbestimmt weit überlegen
sind. Das ist dadurch möglich, dass KI-Systeme Modelle natürlicher Intelligenz sind, dh solche Systeme, die ein Verhalten
zeigen, das wir in einem bestimmten Sinn als intelligent
bezeichnen würden, wenn es von einem Menschen (oder
einem anderen Lebewesen) ausgeübt würde (Zu diesem auf
Alan Turing zurückgehenden Intelligenzbegriff der KI-Forschung vgl. Gabriel, Der Sinn des Denkens, 2018). Das bedeutet, dass es prinzipiell möglich und, wie ich gleich argumentieren werde auch normativ wünschenswert ist, KI-Systeme zu
entwickeln, die ethische Erkenntnis und moralische Werturteile modellieren. Diese Systeme wären damit nicht selbst moralische Akteure, was, wie die erste Welle der KI-Ethik gezeigt
hat, nicht realisierbar ist. Sie wären vielmehr eine Art Spiegelung unserer moralischen Praktiken. Diese KI-Systeme hätten
das Potenzial, unsere ethische Erkenntnis zu verbessern, womit ihre Kreation ipso facto im moralischen Sinn normativ
wünschenswert, womöglich sogar geboten ist.
Solche KI-Systeme assistieren den hybriden Wirklichkeiten
des KI-Gebrauchs (in dem immer Mensch und Maschine
interagieren und nicht mehr vollständig voneinander trennbar sind) bereits. Ihre nächste Funktion wäre eine Optimierung unserer Urteilspraktiken, nicht ihre Ersetzung durch Surrogate. Prinzipiell ist unsere moralische Autonomie nämlich
nicht mit ihrer vollständigen Automatisierung vereinbar, weil
Freiheit nicht algorithmisch modelliert werden kann. Daher
übrigens eine bisher noch nicht hinreichend berücksichtige
Sorge, die Kahnemann, Sibony und Sunstein erkannt haben
(vgl. dazu Kahnemann/Sibony/Sunstein, Noise: A Flaw in Human Judgment, 2021). Die wünschenswerte Optimierung
unserer Urteilspraxis (was hier insbesondere das juristische
Feld einschließt) durch algorithmische Noise-Reduktion droht
den Stand des moralischen Fortschritts einzufrieren: „noise
might be essential to accomodate new values and hence to
allow moral and political evolution. If we eliminate noise, we
might reduce our ability to respond when moral and political
commitments move in new and unexpected directions. A
noise-free system might freeze existing values.“ (Kahnemann/
Sibony/Sunstein, Noise: A Flaw in Human Judgment, 2021,
S. 328). Die KI-Revolution erzeugt auf diese Weise ein bisher
nicht bekanntes Optimierungsparadox, das darin besteht,
dass einige Optimierungen nicht wünschenswert zu sein
scheinen.
Ethische KI-Systeme, wie ich sie hier theoretisch skizziere, ohne
die vielfältigen Anwendungen, die es freilich auf allen Gebieten gibt, im Einzelnen zu diskutieren und zu bewerten, regulieren auf diese Weise nach oben: Sie befördern moralischen
Fortschritt und tragen durch ihre konkrete Anwendung zu
positivem sozialem Wandel bei. Dieser Fall muss in jeder KI-Ethik berücksichtigt werden, weil der technowissenschaftliche
und der mit dieser verbundene sozioökonomische Fortschritt
der KI-Revolution unbestreitbar ist. Ethisch zu bewerten (und
normativ durch Regulierung einzuhegen) ist dabei nicht nur
der jeweilige Einsatz von bereits gegebenen KI-Systemen,
sondern bereits die Produktlinie möglicher neuer KI-Systeme.
Denn es besteht begründete Hoffnung darauf, dass KI-Systeme, die zu moralischem Fortschritt beitragen, Kriterien der
ökosozialen Nachhaltigkeit erfüllen, wozu freilich auch der Einsatz von KI-Systemen zur Optimierung ihrer eigenen Energiebilanz gehört (vgl. dazu etwa das Anwendungsprojekt in Kooperation mit NTT (Nippon Telegraph and Telephone) des
transdisziplinären Kyoto Institute of Philosophy, abrufbar unter: https://k-philo.org). Eine fortschreitende Erkenntnis der
ethischen Rahmenbedingungen rasant evolvierender KI-Systeme ist prinzipiell mit moralischem Fortschritt koppelbar, ein
moderner Prozess der technologischen Innovation, der großflächig seit der industriellen Revolution beobachtbar ist. Anders als die industrielle Revolution geschieht die KI-Revolution
immer schon reflexiv: Die Risikobewertung und die technologische Disruption finden gleichzeitig statt. Darin liegt die
Chance einer KI-Ethik, die zur Hochregulation und nicht nur
zur regulierenden Einschränkung des KI-Gebrauchs beiträgt,
was sich freilich nicht ausschließen darf. Denn die ersten
Wellen der KI-Ethik haben begründeten Anlass zu Regulierungsprogrammen gegeben, die deswegen auch weltweit
(keineswegs nur in Europa) erwogen werden.
Mein normativer Vorschlag lautet, KI-Ethik als Hochregulation
als Komplement der Regulierungsdebatte zu verstehen, was
transdisziplinäre Forschungsfelder eröffnet, die auf der Höhe
der KI-Entwicklung mitwirken können, ohne sich dem Verdacht einer weltfremden Technophobie ausgesetzt zu sehen.
Für die Schnittstelle von Ethik und Recht bedeutet dies, dass
Rahmenbedingungen eines fairen Wettbewerbs geschaffen
werden können, dessen Ziel technologischer Fortschritt ist,
der Kriterien normativer Wünschbarkeit erfüllt. Dabei muss
allerdings dringend Sorge für den Fortbestand des liberalen
demokratischen Rechtsstaats getragen werden, in dem technologischer Fortschritt stattfindet, weil dieser derzeit durch
die KI-Revolution auf noch unabsehbare Weise in Gefahr gerät,
soziopolitisch abgeschliffen zu werden (vgl. Coeckelbergh,
Why AI Undermines Democracy and What To Do About It,
2024).
Darin liegt eine heutige Gefahr des Technoliberalismus, der
durch die KI-Revolution seine Gangart geändert hat, was in
diesen Tagen auf der Weltbühne in der Person Elon Musks
verkörpert wird. Unter dem Deckmantel des sicherlich wünschenswerten Bürokratieabbaus wird der Rechtsstaat unterminiert, ein Vorgang, der von den digital orchestrierten Erregungsmustern der sozialen Netzwerke getrieben wird, die von
KI-Systemen unterstützt werden. Dieser Gefahr begegnet man
effektiv nicht durch ihre Benennung und Kritik, sondern dadurch, dass ein ethischer, progressiver Gebrauch der digitalen
Infrastruktur (etwa durch Schaffung neuer sozialer Netzwerke,
die mit ethischer KI kooperieren) gemacht wird. Das wäre
dann eine Aufgabe für eine unternehmerisch hochregulierte
Gesellschaft, die Werte nicht nur als Slogan der Abwehr autoritärer Hybridangriffe (aus welcher Weltgegend auch immer),
sondern als Leitfäden technologischer Innovation begriffe, die
einerseits Negativeffekte runter- und andererseits positive Effekte hochzuregulieren beabsichtigt, was Sache kommender
Wellen der angewandten KI-Ethik sein wird.