1.Politische Keynote
In seiner Keynote skizzierte Paul Nemitz, Hauptberater in der Generaldirektion Justiz und Verbraucher der Europäischen Kommission, zunächst die Vorteile und Risiken der Integration von Robotik im industriellen und zivilen Bereich. In diesem Zusammenhang sprach er an, dass die EU die industrielle Nutzung von Robotern sowie die dazugehörige Forschung und Entwicklung (R&D) bereits umfassend unterstütze. Wirklich neue Entwicklungen würden erst mit der umfassenden Einführung humanoider Roboter im privaten Bereich kommen. Dies ginge mit großen Herausforderungen im Hinblick auf die globale Konkurrenzsituation und geopolitische Fragen der Robotikforschung bzw. Roboterherstellung einher. Als Beispiel nannte er das Unternehmen KUKA, das ursprünglich in Deutschland gegründet wurde, nun jedoch in chinesischer Hand liegt. In diesem Zusammenhang merkte er an, dass das komplexe Ökosystem von Hard- und Software eventuell zumindest die Verlagerung der Produktion ins Ausland verhindern könnte.
Die Regulierung von Technologien erfordere heute mehr als bloße evidenzbasierte Überlegungen; ergänzend bedarf es einer Form rationaler Imagination zukünftiger gesellschaftsrelevanter Risikoszenarien. Er ging anschließend auf den heute vorherrschenden regulatorischen Ansatz ein, der auch in der neuen KI-VO und der Maschinenverordnung (MVO) verfolgt wurde. Seines Erachtens müssten diese Rahmenwerke weiter angepasst werden, um Grundrechte besser gewährleisten zu können, da der ältere Produktsicherheitsansatz nicht mehr ausreiche. Da Roboter in die Hochrisikokategorie der KI-VO sowie unter die neue Produkthaftungsrichtlinie fielen, wären zusätzliche Produktsicherheits- und Haftungsregeln für industrielle Roboter oder Humanoide jedoch nicht dringlich. Im Wesentlichen blieben daher zwei Themen offen: (1) Die Erfassung personenbezogener Daten durch Roboter, insbesondere persönlicher Kommunikationsdaten. Dies müsste durch eine Anpassung der Robotersysteme an die Datenschutz-Grundverordnung (DS-GVO) erfolgen. (2) Eine Reform des Strafrechts, die notwendig sei, um humanoide Roboter vor Schädigung durch Menschen zu bewahren. Ein Versäumnis, Roboter vor Misshandlungen im öffentlichen oder privaten Raum zu schützen, könnte zur allgemeinen Abstumpfung gegenüber Gewalt und Diskriminierung in der Gesellschaft führen.
2. Podiumsdiskussion: Ethische Red Flags – gibt es Roboteranwendungen, die verboten oder als hochrisikant eingestuft werden sollten?
Das Panel (Sandra Wachter (Universität Oxford), Paul Nemitz (Europäische Kommission), Brendan Schulman (Boston Dynamics), Moderation Jason Millar (University of Ottawa)) diskutierte die Risiken, die mit dem Einsatz von Robotern einhergehen – und, inwiefern die aktuelle Rechtslage diese Risiken hinreichend adressiert.
Millar fragte das Panel einleitend, ob Aspekte der Robotik unter die Verbote von Art. 5 KI-VO fallen bzw. ob weitere Verbote erforderlich sind? Nemitz antwortete, dass nur wenige Aufgaben unter Art. 5 KI-VO fallen dürften. Stattdessen sei vielmehr Art. 6 KI-VO für Hochrisikosystemen einschlägig und erfasse robotische Systeme, für die nach der MVO eine Sicherheitsbeurteilung durch Dritte vorgesehen ist. Schulman skizziert in seiner Antwort zunächst allgemeine Entwicklungen in der Industrie, insbesondere in Bezug auf Humanoide. Er berichtet von einer Verlagerung hin zum Einsatz von Reinforcement Learning iRd Trainierens von Robotern, das das alleinige Abstellen auf „hart-codierte“ Systeme beendet habe. China sei aufgrund großer Investitionen ein wichtiger Wettbewerber am globalen Markt. Bis 2028 will die Kommunistische Partei die humanoide Robotik dominieren, was zuletzt auf der Pekinger Robotikkonferenz verdeutlicht wurde. Diese massiven Investitionen werden dazu führen, dass die Produktion „skaliert“ und in der Masse rentabel sein wird. Wachter meinte, dass Roboter vor allem für Aufgaben eingesetzt werden, die „schmutzig, langweilig und gefährlich“ („dirty, dull, and dangerous“) sind. Die Ausweitung des Einsatzes von Robotern auf soziale Aufgaben bringe hingegen eine breite Palette neuer Risiken mit sich, darunter Herausforderungen in den folgenden Bereichen: (1) Datenschutz, insbesondere bei Computer Vision und Spracherkennung; (2) Sicherheitsrisiken aufgrund von inference and decision-making; und (3) psychologischen Risiken. Längerfristig sieht sie Risiken im Zusammenhang mit der emotionalen Abhängigkeit und dem Deskilling von Verbrauchern und Arbeitnehmern.
Millar fragte das Panel anschließend, ob die thematisierten Risiken erfordern würden, dass Ingenieure ihre Definition von Sicherheit ändern? Wachter antwortete, sie sehe eine Zunahme an immateriellen Schäden, wie etwa erhöhter Einsamkeit, Abhängigkeiten und anderen unkonventionellen und „unsichtbaren“ Nachteilen. Nemitz brachte die Frage auf, ob technische Normen oder doch Gesetze besser geeignet seien, um die Herausforderungen in Bezug auf Grundrechte anzugehen. Er sieht Risiken, wenn Maßstäbe nicht streng mit Konsequenzen durchgesetzt werden. Daher könne die Frage der Produktsicherheit nicht allein den Ingenieuren überlassen werden. Er erwähnt zudem, dass vor allem in den USA mehr Regulierung erforderlich sei. Schulman meinte, dass Sicherheit in der Branche oberste Priorität habe. Die Bewertung des Verhaltens von Maschinen erfordere rigorose Tests und letztlich auch externe Zertifizierung. Er ging anschließend auf die Kosten-Nutzen-Abwägung iRv Sicherheitsüberlegungen ein. Physische Sicherheitsrisiken gingen etwa mit autonomen Autos (die ebenfalls Roboter sind) einher, aber die Vorteile von Autos seien ebenfalls offensichtlich. Bei humanoiden Robotern sei dieser Mehrwert noch nicht ersichtlich. Er meint, dass Regulierung mit der Entwicklung nicht Schritt halten könne, was wiederum die Sicherheitsverantwortung der Hersteller erhöhe. Nemitz kommentierte dazu, dass die Demokratie ihre Souveränität über die Technologieunternehmen wieder behaupten müsse. Schulman meinte dazu, die Ethikbestimmungen einiger industrieller Akteure greife bereits relevante Risikoszenarien auf. Er hält dabei das Verbot der Bewaffnung von Robotern für das wichtigste Thema. Aus dem Publikum kam anschließend der Kommentar, dass technische Standards für die Interaktion zwischen Menschen und Roboter sehr vage seien. Wie könne die Kluft zwischen ethischen Leitlinien und praktischen technischen Standards überbrückt werden? Schulman antwortete, die Branche konzentriere sich derzeit auf neue Sicherheitsstandards. Er erkannte jedoch an, dass mehr Reflexion bezüglich der Mensch-Roboter-Interaktion erforderlich sei.
3. Paper Session 1: Moderation Hannah Ruschemeier (Fernuniversität Hagen)
a) Sollten Roboter sozialen Normen gehorchen?
Lena Fiedler (TU Berlin) behandelte in ihrem Vortrag „Roboter im öffentlichen Raum“ die Frage der sozialen Konformität von Robotern. Sie zitierte zunächst Millar betreffend des „sozialen Scheiterns“ von Technologie und der Forderung, dass sich Roboter „normal“ verhalten müssten. Fiedler legte ihren Fokus entsprechend auf soziale Normen. Soziale Normen, so betonte sie, sind nicht kodifiziert und auch nicht allgemein anerkannt. Sie können im Einzelfall zudem auch ungerecht sein, da kein objektiver Wahrheitsanspruch dahintersteht. Dementsprechend bergen soziale Normen Risiken von Bias und Vorurteilen, die das Verhalten von Robotern negativ beeinflussen könnten. Als Beispiel nannte sie eine Studie, die aufzeigte, dass Frauen im öffentlichen Raum männliche Fußgänger eher ausweichen als umgekehrt. Allgemein stellt sich zudem die Frage, wie mit sich widersprechenden sozialen Normen umgegangen werden soll – beispielsweise konträre Normen männlicher oder weiblicher Personen. Die Auswahl einer bestimmten sozialen Norm birgt dabei das Risiko Gruppen zu entfremden und Stereotypen zu verstärken. Abschließend argumentierte sie daher, dass Roboter vielmehr „gerechten“ Normen befolgen sollten, anstatt sich nach sozialen Normen zu richten. Die Definition von gerechten Normen erfordert selbstverständlich weitere Definition und Forschung.
b) Ghost in the Shell: Die Auswirkungen von Radio-Hacking-Geräten auf Robotsicherheit
Aus Sicht von Mateusz Jakubik, Rafal Prabucki, Aleksander Wojdyla, Oskar Grajewsi bietet der Anime „Ghost in the Shell“ eine hilfreiche Grundlage zur Reflexion über potenzielle Risikoszenarien im Zusammenhang von Robotik und Netzwerksicherheit. Eines der Risiken – das auch der erwähnte Anime anspricht – ist das Hijacking von Geräten durch böswillige Akteure. Der Vortrag behandelte verschiedene Geräte zum Zwecke des Hackings von Robotern und den damit verbundenen Herausforderungen, wobei der Fokus auf der Sicherheit von Netzwerken lag. Flipper Zero, WiFi Pineapple, HackRF One etc seien notwendig, um drahtlose und RF-Kommunikation sicherzustellen. Gleichzeitig würden sie aber eine Herausforderung iSd Dual-Use-Problematik darstellen, da sie von böswilligen Akteuren missbraucht werden können. Eine Zusammenarbeit zwischen Technologen, Rechtsexperten und Ethikern sei notwendig, um sicherzustellen, dass die Vorteile solcher Werkzeuge realisiert werden können, ohne dass zugleich die Sicherheit von Netzwerken gefährdet werde. Die Vortragenden sehen vor allem darin ein Problem, dass billige Hacking-Geräte im normalen Handeln einfach erhältlich sind. Diesen Risiken aus der freien Erhältlichkeit stehen wiederum die Vorteile der Verwendung für das Red Teaming gegenüber. Abschließend wurde betont, dass viele Geräte unreguliert und insbesondere nicht von der einschlägigen Funkregulierung erfasst seien. Sie attestieren entsprechend eine regulatorische Lücke.
c) Eine dreistufige Governance-Methode zur Kontrolle der Risiken von KI-Robotern und anderen neuartigen Technologien
Die Präsentation von Jiawei Zhang und Boris Paal (TU München) behandelte die kritische Frage, wie wir typische Risiken der Robotik mittels effektiver regulatorischer Ansätze entgegentreten können? Zhang kritisierte zunächst den „Nirvana-Ansatz“, bei dem dem Realen eine Idealvorstellung gegenübergestellt wird und damit regelmäßig als unbefriedigend zu beurteilen ist. Ein Ideal könne nur als Zielvorstellung dienen und sei schwierig mit einer Kosten-Nutzen-Bewertungen zu verbinden. Der Redner stellte dann einen komplexen, auf mittlere Ebene dreistufigen Ansatz seines Teams vor, der die folgenden regulatorischen Ziele definiert: (1) Behebung von Marktversagen: Dazu zählt die Auseinandersetzung mit den Themen der Informationsasymmetrie, unzureichender Infrastruktur, Zugang zu hochwertigen Daten, Verhinderung von Marktkonzentration und Unterstützung der Verbraucher. (2) Wertgeleitete Regeln: Dies betrifft die Notwendigkeit der Einführung von Mindeststandards für KI-Betreiber und Verbraucher, die sich an grundlegenden Werten orientieren sollte. In diesem Zusammenhang hob der Redner die Gefahren von toxischem Wettbewerb hervor und beschrieb ein „race to the bottom“ betreffend Sicherheitsstandards. In solchen Fällen werden kommerzielle Interessen vor soziale Interessen gestellt. Eine solche Umgebung kann in einem „lemon market“ resultieren, der die Unkenntnis der Verbraucher ausnutzt. (3) Verfahrenskontrollen: Sicherstellung der Einhaltung der Normen durch robuste Verfahrenskontrollen, einschließlich Selbstbewertung, Informationsoffenlegung und Audits. Diese Struktur wurde durch eine detaillierte Kategorisierung einzelner Regulierungsinstrumente ergänzt.
4. Vortrag: Sicherheitsüberlegungen für kollaborative Anwendungsszenarien von KI-gesteuerter Robotik
In seinem mehrheitlich technischen Fachvortrag betonte Markus Lange (Institut für KI-Sicherheit, DLR), wie wichtig es sei, sicherzustellen, dass ein Roboter in seinem Umfeld sicher arbeite – insbesondere dann, wenn Menschen eingebunden sind (human in the loop). Er betonte die Notwendigkeit fest kodierter Beschränkungen für bestimmte Szenarien. Lange erläuterte anschließend zwei Schlüsselfaktoren in Bezug auf die Entwicklung von Robotern: Verifizierbarkeit und Erklärbarkeit. Er betonte, dass insbesondere die Erklärbarkeit von entscheidender Bedeutung sei. Zugleich stelle sich jedoch das Problem, dass erhöhte Transparenz und Erklärbarkeit das System anfällig für gegnerische Angriffe machten. Er beschrieb weiters, wie Situationsbewusstsein in autonomen Fahrsystemen durch die Kombination von Objekterkennung, insbesondere semantischer Segmentierung, und großen Sprachmodellen (LLMs) erreicht werden kann. Die Verwendung einer LLM zur Erläuterung der Objekterkennung und Entscheidungsfindung ermöglicht ein besseres Verständnis der Umgebung und trägt so zur Erklärbarkeit bei. Er wies dabei auf den Zusammenhang von Erklärbarkeit und Vertrauensbildung der Nutzer hin. Schließlich räumte Lange ein, dass eine 100-prozentige Sicherheit unerreichbar sei, insbesondere beim Übergang von deterministischen zu stochastischen Ansätzen. Insgesamt bot der Vortrag einen Einblick in die Komplexität der Gewährleistung von Sicherheit in Robotersystemen.
5. Vortrag: Navigieren durch die EU-Tech-Regulierung: Berlins Weg zu sicheren und vertrauenswürdigen Innovationen in Robotik und KI, Moderation Philipp Günther (Berlin Partner)
a) Markus Lehnshacks (IKEM) Präsentation konzentrierte sich auf die rechtlichen Herausforderungen im Zusammenhang mit dem Einsatz von Robotern im öffentlichen Raum, insbesondere in Bezug auf das nationale Straßenverkehrsrecht und das Produktsicherheitsrecht. Lehnshack thematisierte u.a. die Definition von öffentlichem Raum und zeigte auf, wie regulatorische Anforderungen es Unternehmen erschweren, zu bestimmen, ob sie Genehmigungen für den Einsatz von Robotern benötigen. Nach deutschem Recht werden Roboter im Straßenverkehrsrecht typischerweise als Kraftfahrzeuge eingestuft, da etwa keine Anforderungen an eine Gleisverbindung oder Mindestgeschwindigkeit bestehen. Diese Klassifizierung werfe erhebliche rechtliche Unsicherheiten auf, insbesondere in Bezug auf die Notwendigkeit einer Betriebserlaubnis. Roboter, die als autonome Fahrzeuge eingestuft werden, müssten bestimmte regulatorische Anforderungen erfüllen, wie zB Sprachfunktionen, Scheinwerfer und andere Funktionen, die historisch für tatsächliche Fahrzeuge zugeschnitten sind. Die aktuellen Fahrzeugvorschriften sei nicht adäquat an Roboter angepasst.
b) Alexander von Janowskis (TÜV AI Lab) Präsentation drehte sich um das European Testing and Experimentation Facilities (TEFs) Projekt, das die Validierung und Zertifizierung innovativer Medizinprodukte verbessern und vereinfachen soll. Er brachte dazu zunächst einen Überblick über die relevanten regulatorischen Rahmenbedingungen, einschließlich der Medical Device Regulation (MDR) und der KI-VO. Anschließend hob von Janowski die Gemeinsamkeiten zwischen den beiden Rahmenwerken hervor, wie etwa die Notwendigkeit von Qualitätsmanagementsystemen (QMS), technischer Dokumentation und Marktüberwachung. Beide Rahmenwerke kategorisieren Risiken in Risikostufen ähnlich von niedrig bis sehr hoch bzw. untragbar. Anschließend besprach er die Möglichkeiten der Integration von agilen Entwicklungsprozessen in Zertifizierungsmechanismen. Dies bringe besondere Herausforderungen im Hinblick auf die Erfüllung der Dokumentations- und Bereitschaftsstandards, die für die MDR-Zertifizierung erforderlich sind, mit sich.
6. Viros Project Panel: Regulierungslücken und Herausforderungen im Bereich der Robotik, Moderation Lee Andrew Bygrave (Universität Oslo)
a) Wo ist Wally, die Roboter Ausgabe
Naomi Lintvedt (Universität Oslo) thematisierte in ihrer Präsentation den aktuellen Stand der EU-Regulierung von Robotern und verwies auf wichtige, bereits bestehende, gesetzliche Grundlagen (Entschließung des Europäischen Parlaments v. 20.10.2020 zu ethischen Grundsätzen für die Robotik; Entschließung des EP v. 16.2.2017 zu zivilrechtlichen Regelungen für die Robotik). Da es derzeit keine eigenständige Regulierung für Roboter gebe, betonte sie zudem die Relevanz der MVO, die ausdrücklich „kollaborative Roboter“ und „Cobots“ erfasse. Sie ging zudem darauf ein, ob Roboter nach anderen Regelwerken erfasst seien. Beispielsweise seien Roboter in der Produktsicherheitsverordnung nicht explizit erwähnt, würden jedoch unter das breitere Konzept von „Produkten“, wie etwa „digital vernetzte Produkten“ fallen. Auch der Cyber Resilience Act sei relevant, da dort „Produkte mit digitalen Elementen“ abdeckt und speziell „robot sensing“ erwähnt sei (s. Anhang III, Kritische Produkte mit digitalen Elementen, Klasse II, Nr. 14, sowie Erwägungsgrund 7, der sich mit „vernetzten Produkten mit digitalen Elementen“ befasst). Lintvedt erläuterte anschließend Anforderungen nach der KI-VO und betonte die Bedeutung von Transparenzvorschriften für Roboter. Sie zeigte zudem auf, wie die KI-VO Probleme in Bezug auf unterschwellige und manipulative Technologien reguliert. Sie kam zu dem Schluss, dass Roboter mehr als die Summe ihrer Einzelteile sind – und, dass eine technologieneutrale Regulierung die spezifischen Risiken von Robotern ggf. nicht hinreichend bewältigen kann.
b) Regulierung smarter Robotik: Die EU-Maschinenverordnung trifft auf das Gesetz über künstliche Intelligenz
Tobias Mahler (Universität Oslo) brachte einen Überblick über Robotik-relevante Aspekte der Maschinenverordnung (MVO) und deren Überschneidung mit der KI-VO. Der erste Schritt bestehe darin, alle in einem Roboter verwendeten KI-Systeme als solche zu identifizieren. Ein KI-System würde dann gem. Art. 6 KI-VO nur dann als hochriskant eingestuft werden, wenn die MVO bereits eine Konformitätsbewertung durch Dritte vorschreibe. Dies sei insbesondere dann erforderlich, wenn ein Roboter „selbstentwickelndes Verhalten“ zeige und maschinelles Lernen Sicherheitsfunktionen gewährleiste (Art. 25(2) und (3) MVO, in Bezug auf Anhang I, Teil A, Abschnitte 5 und 6). Die MVO enthalte zunächst die Verpflichtung, Daten zu sicherheitsrelevanten Entscheidungsprozessen aufzuzeichnen. Im Gegensatz dazu lege die KI-VO den Schwerpunkt auf die Protokollierung von Ereignissen und die Einhaltung der DS-GVO. Während die MVO Kontrollmaßnahmen gegenüber den Maschinen vorgebe, betone die KI-VO die menschliche Aufsicht über KI-Systeme. Darüber hinaus reguliere die MVO autonome mobile Maschinen und lege Sicherheitsanforderungen für den Betrieb fest. Dies umfasst etwa Überwachungsfunktionen wie eine Abschaltvorrichtung, Steuerungssysteme, die für Sicherheitsfunktionen ausgelegt sind und Bewegungssteuerungen auf Basis von Risikobewertungen. Autonome Maschinen müssen entweder in einem geschlossenen Bereich betrieben werden oder die Fähigkeit besitzen, Menschen, Tiere oder andere Hindernisse zu erkennen. Die MVO deckt zudem speziell KI-Systeme ab, die mit Menschen interagieren und erfordert, dass Systeme mit sich entwickelndem Verhalten und Autonomie angemessen und adäquat auf Menschen reagieren können. Mahler schloss seine Präsentation mit der Feststellung, dass die MVO zwar als Basis für die Markteinführung von Robotern diene, es jedoch wesentliche konzeptionelle Unterschiede zum KI-VO gibt, die beachtet werden müssen.
7. Paper Session 2: Moderation William Smart (Oregon State University)
a) KI, Klima und Regulierung: Von Rechenzentren bis zum KI-Gesetz
In der Präsentation von Nicolas Alder, Kai Ebert, Ralf Herberich, Phillip Hacker (Europa Universität Viadrina / Hasso-Plattner-Institut) wurde der zunehmende Energiebedarf von KI-Systemen und die damit einhergehenden Auswirkungen auf die Umwelt beleuchtet. Eine zentrale Frage lautete: Was bedeutet nachhaltige KI? Er sprach zunächst über die Energieeffizienzrichtlinie (EED) von 2023, die für IT-Leistungen ab 500 kW gilt. Sie enthalte Anforderungen für EU-Datenbanken in Bezug auf Strom-, Wasserverbrauch und Energieaudits. Hacker verwies zudem auf den Artificial Intelligence Environmental Impacts Act of 2024 aus den USA. Rechenzentren in Deutschland seinen nun dazu verpflichtet 50% an erneuerbaren Energien zu nutzen. Die KI-VO fordere außerdem Transparenz von KI-Modellen mit allgemeinem Verwendungszweck (GPAI) im Hinblick auf deren Energieverbrauch, insbesondere bei Hochrisikosystemen während der Entwicklungsphase. Problematisch sei dabei, dass Energienutzungsberichte nur an das KI-Büro übermittelt werden müssten. Ein weiterer wichtiger Punkt sei zudem, dass die Inferenz – der Betrieb von KI-Modellen – mehr Energie verbrauche als die Trainingsphase selbst. Hacker betonte zudem die Herausforderung, den Energieverbrauch exakter zu messen, und empfahl als Kennzahl den kumulierten Serververbrauch, der alle Server umfasst, die für das Modelltraining genutzt werden. Er sprach anschließend über Energieeffizienz (PUE), die den Energieverbrauch von IT-Geräten dem gesamten Energieverbrauch gegenüberstellt. Hacker präsentierte dann mehrere potenzielle Änderungen, darunter die Einbeziehung des Inferenzverbrauchs in die Energieberichterstattung, die Berücksichtigung indirekter Emissionen, die Veröffentlichung der Daten und die Durchführung von Umweltverträglichkeitsprüfungen. Abschließend gab er die Empfehlungen, den höchsten Energieverbrauch auf Spitzenzeiten zu beschränken, den Einsatz erneuerbarer Energiequellen zu erhöhen und ein marktbasiertes System mit handelbaren Budgets für den Energieverbrauch von KI einzuführen.
b) Datenschutzbestimmungen in der japanischen Robotik: Konformität mit den EU-Marktanforderungen
Die Präsentation von Naomi Lintvedt (Universität Oslo) startete mit einem Überblick über die Geschichte von Robotern in Japan und dem Einsatzgebiet von Roboter, wie etwa in der Altenpflege, für alltägliche Aufgaben und arbeitsbezogene Tätigkeiten. Sie thematisierte anschließend den Schutz personenbezogener Daten und wies darauf hin, dass für Japan ein EU-Angemessenheitsbeschlusses bezüglich Datentransfers bestehe. Der Datenschutz in Japan wäre jedoch von kulturellen Faktoren beeinflusst und beruhe in erster Linie auf Entscheidungen der japanischen Höchstgerichte. Im Gegensatz zum EU-Recht würde vor allem langzeitige Datenspeicherung nicht als Eingriff in die Privatsphäre erachtet. Obwohl das japanische Gesetz zum Schutz personenbezogener Daten (APPI) sprachlich weitgehend der DS-GVO entspricht, gebe es in wichtigen Bereichen dennoch Unterschiede. So seien etwa Gesundheitsdaten in Japan nur im engeren Kontext von Gesundheitsdiensten geschützt. Darüber hinaus fehle es importierten Robotern aus Japan oft an robusten Daten- und Cybersicherheitsstandards, da in Japan mehr auf die physische Sicherheit als auf den Datenschutz fokussiert werde. Lintvedt wies zudem darauf hin, dass der EU-Angemessenheitsbeschlusses nicht für die Einführung von Produkten aus Drittländern in die EU gelte, sondern nur für den Datenexport, womit eine potenzielle regulatorische Lücke bestehe.
c) Förderung der Robotikpolitik durch den EU-Ansatz „Wissenschaft für Politik“
Die Präsentation von Eduard Fosch-Villaronga, Marie Schwed-Shenker, Raiz Shaffique, Antoni Mut Piña (Universität Leiden) begann mit der Diskussion von Sicherheitsanforderungen für Roboter, wobei er speziell auf ISO 13482:2014 Robots and robotic devices — Safety requirements for personal care robots einging. Er wies darauf hin, dass der ISO-Standard für Assistenzroboter wichtige Faktoren wie Geschlechtsunterschiede und die Bedürfnisse von gefährdeten Gruppen außer Acht lasse. Er betonte, dass ISO 13482:2014 klare Definitionen für wichtige Begriffe wie „Assistenz“ vermisse und sich hauptsächlich auf physische Interaktionen konzentriere, während soziale Roboter ignoriert würden. Er argumentierte anschließend, dass bereits bestehende Regulierung bestimmte Arten von Robotern nicht erfassen würden. Er sprach sich dann für evidenzbasierte Regulierung aus und verwies diesbezüglich auf die Plattform der EU-Kommission für evidenzbasierte Politikgestaltung, Knowledge4Policy (K4P). Er vertritt, dass gute Regulierung auf verlässlicher, qualitativ hochwertiger Forschung basieren müsse, die Vielfalt widerspiegele und Probleme genau identifiziere. Dieser Ansatz erfordere die Einbindung der Wissenschaften, um sicherzustellen zu können, dass wissenschaftliche Methoden bei der Bewältigung regulatorischer Lücken berücksichtigt werden.
8. Podiumsdiskussion: Brauchen wir Robotikgesetze - und was sollten sie beinhalten?
Die abschließende Podiumsdiskussion mit Ryan Calo (University of Washington), Martin Ebers (RAILS e.V.), Carolin Kemper (FÖV Speyer) und William Smart (Oregon State University) wurde unter der Moderation von Michael Kolain (RAILS e.V.) mit der Frage an das Publikum eröffnet, ob sie die Regulierung von Robotern als notwendig erachten. Das Ergebnis der Abstimmung war geteilt. Die erste Frage ging anschließend an Kemper – was würde sie in einem Robotergesetz aufnehmen? Kemper meinte, dass unionsrechtliche Produktsicherheits-, Maschinen-, Cybersecurity-, KI- und Datenschutzrechtsakte bereits Roboter abdecken würden. Sie verwies auf die vorherige These von Lintvedt, wonach ein Roboter mehr als die Summe seiner Teile sei und warf die Frage auf, worin der Unterschied zwischen einer Maschine und einem Roboter liegt bzw. wo die Trennlinie zwischen Software-Agenten und Robotik zu ziehen sei. Sie plädierte stattdessen für die Anpassung der bestehenden Regelungen. Kolain wandte sich anschließend an Ebers und fragte nach seiner Sichtweise auf ein Robotergesetz. Ebers führt dazu aus, dass Robotik, ähnlich wie KI, keine isolierte Problematik darstelle. Er kritisierte dann allgemein, den Ansatz in der europäischen Technologieregulierung und speziell die KI-VO. Ein risikobasierter Ansatz, wie er oft gefordert wird, liege diesem gar nicht zu Grunde, da nicht jedes einzelne System individuell im Hinblick auf das Risikolevel bewertet würde. Er äußerte entsprechend Bedenken, das Konzepte der KI-VO auf die Robotik übertragen werden könnten. Ebers erwähnte zudem, dass das KI-Gesetz auch keine evidenzbasierte Regulierung darstelle. Kolain fragte anschließend Smart, ob er der Meinung sei, dass es bereits zur Überregulierung gekommen sei. Smart antwortete zustimmend, dass eine spezielles Robotergesetz daher nicht notwendig sei. Calo widersprach und argumentierte, dass eine Regulierung von Robotern erforderlich sei, um mit emergenten Verhalten umzugehen. Zudem würden soziale Roboter neue Herausforderungen in Bezug auf die Manipulation von Verbrauchern bringen. Er bezog sich diesbezüglich auf Paul Nemitz’ Bemerkung zu sozialem Fehlverhalten gegenüber Robotern. Kolain fragte Smart daraufhin, mit welchem Abstraktionsgrad Technologie reguliert werden müsste, um Gesetze flexibel zu gestalten. Smart führte als Beispiel an, dass Software und KI oft nicht klar zu unterscheiden seien, weshalb unterschiedliche Regelungen unnötig erscheinen. Allgemein sei ein gewisses Maß an Abstraktion notwendig, um zu verhindern, dass Gesetze schnell veralten. Kolain richtete dann seine Schlussfrage an Calo bezüglich der Rolle von Big Tech in der US-Regulierung. Insbesondere sei zu besprechen, warum die Regulierung von KI und Robotik in den USA noch nicht vorangeschritten sei. Calo antwortete, dass die führenden US-Unternehmen von den US-Regulierungsbehörden mittlerweile als geopolitisch relevante Akteure geschützt würden. Der weite Schutz begründe sich aber schon mit der älteren Section 230 des Communications Act, der Online-Plattformen vor Haftung schützt. Die lockere Regulierung des Internets habe sich ursprünglich ohne Einflussnahme großer Unternehmen entwickelt und sei vielmehr aus der Tradition der Meinungsfreiheit entstanden.
9. Roboter-Demo, Universität Siegen
Während der Veranstaltung war es den Teilnehmenden zudem möglich mit dem sozialen Roboter „Navel“ der Uni Siegen zu interagieren, der als Pflegeroboter oder zur Erforschung der Mensch-Maschine-Interaktion eingesetzt werden kann.
10. Fazit
Zusammenfassend lässt sich festhalten, dass die erste We Robot Europe viele hochrangige Akteure aus Wissenschaft, Politik, Gesetzgebung und Industrie zusammengebracht hat und eine Plattform für anregenden Austausch zu den drängenden Fragen eines verantwortungsvollen und ethischen Umgangs mit Robotern bot.
Clemens Danda (Hauptautor/erster Autor) ist Postdoktorand am Institut für KI-Sicherheit des Deutschen Zentrums für Luft- und Raumfahrt. Er arbeitet zu technologiebezogenen Aspekten des europäischen Schulden-, Daten- und IP-Rechts.
Susanne Rönnecke, LL.M. (Duke), ist Doktorandin und wissenschaftliche Mitarbeiterin an der Universität Jena sowie Projektkoordinatorin bei RAILS e.V. Sie forscht zur rechtlichen Transparenz und Diskriminierungsschutz bei algorithmischen Entscheidungssystemen.
Carolin Kemper ist Forschungsreferentin am Deutschen Forschungsinstitut für öffentliche Verwaltung und forscht zum Technik- und Sicherheitsrecht.