CHB_RSW_Logo_mit_Welle_trans
Zeitschrift für Datenschutz | Banner

5. RAILS-Konferenz: „Einsatz von KI und Robotik in der Medizin: Interdisziplinäre Fragen“

Lina Marie Schauer ist Doktorandin und Akade-mische Mitarbeiterin an der Juniorprofessur für IT-Recht und Medienrecht (Tenure Track) von Prof. Dr. Björn Steinrötter an der Universität Potsdam.

MMR-Aktuell 2023, 01017   Die 5. Konferenz der Robotics & AI Law Society (RAILS) zum Thema „Einsatz von KI und Robotik in der Medizin: Interdisziplinäre Fragen“ fand am 31.3.2023 in Berlin statt. Prof. Dr. Hannah Ruschemeier (Juniorprofessorin für Öffentliches Recht mit Schwerpunkt Datenschutzrecht/Recht der Digitalisierung, Fernuniversität Hagen) und Prof. Dr. Björn Steinrötter (Juniorprofessur für IT-Recht und Medienrecht, Universität Potsdam) begrüßten die rund 70 Teilnehmenden in den Räumlichkeiten der Fernuniversität Hagen am Campus Berlin.

Panel 1: Daten und Ethik in KI und Medizin

Prof. Dr.-Ing. Rania Rayyes (Juniorprofessur für AI and Robotics, Karlsruher Institut für Technologie) eröffnete das erste, von Prof. Dr. Hannah Ruschemeier moderierte Panel zu „Daten und Ethik in KI und Medizin“ mit einem Beitrag zum „Deep Learning for Real Medical Applications“. Gegenstand ihrer Ausführungen war der Einsatz von Künstlicher Intelligenz zu Zwecken der medizinischen Diagnostik.

Die Referentin erläuterte in diesem Zusammenhang, dass der Einsatz von Daten im Rahmen der medizinischen Forschung mit vielen Herausforderungen verbunden sei. Diese ergeben sich zunächst daraus, dass im Allgemeinen für das jeweilige Forschungsvorhaben nur wenige relevante Daten verfügbar seien und diese nur mit der Einwilligung der Patientinnen und Patienten zur Verfügung stünden. Problematisch sei ferner, dass die verfügbaren Datensätze der Interpretation bedürften und deren Labeling hohe Kosten verursache. Nichtsdestotrotz gelte es das Potenzial der Daten für die medizinische Forschung auszuloten. Als praktisches Beispiel der daraus entspringenden Möglichkeiten stellte Rayyes ein Hyperspectral-Imaging (HSI) Deep Learning System für die Vorhersage von Kehlkopfkrebs vor. An diesem erläuterte die Referentin die Schwierigkeiten bei der Erkennung von Kehlkopfkrebs im Allgemeinen und der Wirkungsfähigkeit von Deep Learning Systemen zur effizienten und schnellen Früherkennung der Krebserkrankung.

Anschließend referierte Prof. Dr.-Ing. Erwin Keeve (Professor für Chirurgische Navigation und Robotik, Charité Universitätsmedizin Berlin) über „Robotik in der Medizin“. Im Rahmen dessen gab er den Teilnehmenden der Tagung einen Einblick in die gegenwärtigen strukturellen Probleme der medizinischen Versorgung der Bevölkerung und legte das Potenzial von Künstlicher Intelligenz und Robotik dar, um den daraus resultierenden Schwierigkeiten entgegenzuwirken.

Eingangs widmete sich der Referent der Definition grundlegender Begrifflichkeiten und ging auf die Grundzüge des Medizinproduktegesetzes ein. Er problematisierte, dass die stetig wachsende Anzahl von Patientinnen und Patienten einer immer geringeren Zahl von Krankenhäusern gegenüberstehe und erläuterte die damit einhergehenden Problematiken. Keeve fokussierte sich anschließend auf verschiedene robotische Systeme, deren Einsatz in der medizinischen Praxis die Genauigkeit und Effizienz bei operativen Eingriffen verbessern und damit die Patientenversorgung optimieren können. Neben AMIGO (Advanced Multimodality Image Guided Operating), einem Hybrid-OP mit MRT und PET-CT, stellte Keeve In-House-Entwicklungen der Charité vor, darunter ein in Kooperation mit der Fraunhofer Gesellschaft entwickelter endoskopischer Roboterarm zur aktiven oder passiven Führung von Instrumenten während einer Operation. Der Referent ging weiter auf das Robotik-System Da Vinci ein und widmete sich sodann der zunehmenden Integration von Bildgebung in Operationssälen und den damit verbundenen Veränderungen der Chirurgie im Allgemeinen. In diesem Zusammenhang betonte er die Zukunftsträchtigkeit robotischer Systeme und gab abschließend einen kurzen Ausblick zu deren möglichen kommerziellen Einsatz.

Prof. Dr. Susanne Hahn (Institut für Philosophie, Heinrich-Heine Universität Düsseldorf; Principal Investigator ELSI am Center for Advanced Internet Studies (CAIS) in Bochum) führte im Folgenden aus der philosophischen Perspektive zu der Fragestellung: Algorithmische „Entscheidungen“ in der Medizin? aus. Einleitend stellte sie die Überlegung an, ob handlungsbezogene Ausdrücke wie zB „Entscheidungen“, „Interaktion“ oder „Verantwortung“ im Gespräch über Künstliche Intelligenz Anwendung finden könnten, um die daraus gezogenen Erkenntnisse als Grundlage für weitere im Zusammenhang mit KI aufkommende Fragestellungen zu verwenden.

Zur Beantwortung der aufgeworfenen Frage modellierte die Referentin zunächst das Begriffsverständnis von „Entscheidungen“ unter Heranziehung verschiedener Definitionsvorschläge sowie der Entscheidungstheorie. Davon ausgehend prüfte sie weiter, ob Algorithmen Entscheidungen nach dem zuvor definierten Verständnis treffen. Hahn erläuterte, dass es für die Entwicklung und Anwendung der „entscheidenden“ Algorithmen stets eines Dateninputs sowie einer Datenaufbereitung bedürfe, um daraus Voraussagemodelle zu entwickeln. Sie lehnte die Einordnung der einzelnen algorithmischen Sortierungsfälle als Entscheidungen ab und betonte, dass es sich bei den Algorithmen nicht um autonome Akteure handele. Ihnen fehle es insoweit insbesondere an Entscheidungsspielräumen. Allerdings stelle die Verbindung mustergenerierter Voraussagen und Maßnahmen im Rahmen einer Wenn-Dann-Verknüpfung eine Entscheidung dar. Abschließend gab die Referentin einen Ausblick zu daraus resultierenden Folgefragen.

Prof. Dr. Rainer Mühlhoff (Professor für Ethik der Künstlichen Intelligenz, Institut für Kognitivwissenschaft, Universität Osnabrück) beendete das erste Panel mit einem Beitrag zum „Präditiven Wissen und präditiver Privatheit“.

Im ersten Teil seines Vortrags führte der Referent zu den Vorteilen des Social Media Advertisings aus, um Probandinnen und Probanden für medizinische Studien zu akquirieren. Mit Blick auf die gute Erreichbarkeit potenzieller Versuchspersonen und die große Reichweite der Online-Anzeigen entfalte die Recruiting-Strategie vor allem bei seltenen oder stigmatisierten Krankheiten – bei denen sich die Probandensuche regelmäßig schwierig gestalte – ein großes Potenzial. Die Targeting-Algorithmen erlaubten es maßgeschneiderte Anzeigen zu schalten, die eine hohe Erfolgsquote bei der Auswahl entsprechender Probandinnen und Probanden versprechen. Sie ermitteln auf Grundlage von Nutzungsdaten wie Likes und Kommentaren Datenfelder, aus denen sie wiederum personenbezogene Daten ableiteten.

Dem begegnen laut Mühlhoff jedoch verschiedene ethische Bedenken, denen er den zweiten Teil seines Referats widmete. Dabei problematisiert er zunächst die biomedizinische Forschungsqualität der ermittelten Daten, da die Predictive-Targeting-Algorithmen die Anzeigen nicht allen Nutzern anzeigten, die den Targeting-Kriterien entsprechen, sondern nur denen, die mit höchster Wahrscheinlichkeit die Anzeige anklicken. Dementsprechend orientiere sich die Rekrutierung der Probandinnen und Probanden als elementarer Bestandteil des Forschungsprozesses nicht an wissenschaftlichen Auswahlkriterien.

Der Referent gab weiter zu bedenken, dass das Social Media Advertising einen neuen Typus der Privatssphäreverletzung begründe. Ein Eingriff in diese „Präditive Privatheit“ der Nutzer liege dann vor, wenn personenbezogene Daten über eine betroffene Person ohne deren Wissen oder deren Einwilligung vorhergesagt würden. Auf Grundlage der ermittelten Daten erhalte die Plattform ein Modell zur Vorhersage der Krankheit bei allen Nutzern. Folgeproblematik dessen sei, dass es zu einer Sekundärnutzung der Daten komme, da ein Weiterverkauf sowie eine Weiternutzung der Modelle denkbar sei. Dies entfalte wiederum Missbrauchspotenzial zulasten der gefährdeten Personen. Abschließend machte Mühlhoff erneut auf die Gefahren für die Präditive Privatheit aufmerksam und fordert eine Regulierung präditiver Modelle, um dem bislang von der DS-GVO nicht ausreichend begegneten Risiko entgegenzutreten.

Panel 2: Praxis, Datenschutz und Haftung

Im zweiten, von Dr. Paulina Pesch (Postdoktorandin an der Forschungsgruppe für Wirtschaftsinformatik, insbesondere IT-Sicherheit, Westfälische Wilhelms-Universität Münster; Zentrum für angewandte Rechtswissenschaft am Karlsruher Institut für Technologie) moderierten Panel „Praxis, Datenschutz und Haftung“ referierte Prof. Dr. Petra Ritter (Leiterin der Sektion Gehirnsimulation (CCM), Charité Universitätsmedizin Berlin) zum „Stand der medizinischen Praxis“. Im Rahmen dessen berichtete die Referentin über verschiedene Forschungsprojekte. Im Zentrum ihrer Ausführungen stand das eBRAIN-Health Projekt, das darauf abziele, eine dezentrale, datenschutzkonforme Forschungsplattform zu erschaffen, die die Simulation komplexer neurobiologischer Phänomene des menschlichen Gehirns ermögliche. Zur Bereitstellung dieser Daten tragen Forscherinnen und Forscher umfangreiche Datenmengen aus Quellen wie PET- und MRT-Scans, EEG-Tests, Verhaltensstudien und klinischen Daten zusammen und kombinieren sie mit biologischen Informationen aus Wissensdatenbank. Diese Simulationssoftware ermögliche es, Prozesse abzubilden, die sich nicht anhand bloßer Messdaten herleiten ließen. Die Referentin führte aus, dass die auf diesem Wege entstehenden „Gehirn-Zwillinge“ Möglichkeiten für neue innovative Forschungsprojekte in einer leistungsfähigen digitalen Infrastruktur eröffneten. Exemplarisch dafür sei etwa die mathematische Berechnung von Medikamentenauswirkungen anhand der digitalen Avatare. Laut Ritter erlaubten die Gehirnsimulation auf Grundlage der umfangreichen Datenmengen es, ein besseres Verständnis für die den Gehirnfunktionen zu Grunde liegenden Prozesse und Mechanismen zu entwickeln. Sie betonte, dass bei dieser Arbeit mit sensitiven Daten jedoch hinreichende Schutzvorrichtungen notwendig seien und hob die Wichtigkeit der Datenschutzkonformität einer sicheren virtuellen Forschungsumgebung hervor.

Im Anschluss trug Prof. Dr. Tobias Herbst (Professor an der Hochschule für Polizei und öffentliche Verwaltung NRW; Privatdozent an der Humboldt-Universität zu Berlin) zu „Herausforderungen an das Datenschutzrecht durch den Einsatz von KI und Robotik in der Medizin“ vor. Eingangs problematisierte der Referent, dass disruptive Technologien wie Big Data und Künstliche Intelligenz bei Schaffung der Datenschutz-Grundverordnung noch keine Berücksichtigung finden konnten, weshalb verschiedene Reibungspunkte bestünden. Insbesondere bestehe ein Spannungsverhältnis zu den Grundsätzen für die Verarbeitung personenbezogener Daten aus Art. 5 Abs. 1 DS-GVO. Dieses skizzierte Herbst mittels einer datenschutzrechtlichen Bewertung von Künstlicher Intelligenz anhand der einzelnen Grundsätze. Er hob dabei den Grundsatz der Transparenz nach Art. 5 Abs. 1 lit. a DS-GVO hervor und erläuterte, dass die betroffenen Personen die Verarbeitung der sie betreffenden personenbezogenen Daten zwar grundsätzlich nachvollziehen können müssen, dies beim Einsatz von KI oftmals nicht möglich sei. Darauf aufbauend erwog er, ob sich in diesem Zusammenhang die SCHUFA-Rechtsprechung brauchbar machen lasse, nach der die Offenlegung der Daten, nicht hingegen der zugrundeliegenden Algorithmen, erforderlich sei.

Im weiteren Verlauf des Vortrags widmete sich der Referent der Verarbeitung besonderer Kategorien personenbezogener Daten nach Art. 9 DS-GVO im Zusammenhang mit sog. „Gesundheits-Apps“, die zB zur Diagnose oder Therapie psychischer Erkrankungen Anwendung finden. Abschließend thematisierte Herbst datenschutzrechtliche Implikationen im Rahmen der medizinischen Forschung. Dabei wies er darauf hin, dass trotz des Bedarfs von großen Datenmengen zu Forschungszwecken mangels Gesetzgebungskompetenz des Bundes keine bundeseinheitliche gesetzliche Grundlage, sondern lediglich länderspezifische „Forschungsklauseln“ existieren. Dementsprechend bedürfe es regelmäßig eines „broad consents“ seitens der betroffenen Personen, was wiederum verschiedene datenschutzrechtliche Fragestellungen nach sich ziehe. Daran anknüpfend thematisierte der Referent die aufkommenden Problematiken bei der Kooperation mit Forschern aus Drittstaaten und beendete seinen Vortrag mit der Untersuchung verschiedener Löschungsansätze wie Standard-Vertragsklauseln, die Anonymisierung von Daten und die ausdrückliche Einwilligung der betroffenen Personen zu einer Weitergabe an die Nicht-EU-Staaten.

Zum Abschluss des zweiten Panels folgte ein Referat von Prof. Dr. Jan Eichelberger (Professor für Bürgerliches Recht, Immaterialgüterrecht und IT-Recht, Institut für Rechtsinformatik, Leibniz Universität Hannover) zur „Arzthaftung im Kontext von KI und Robotik“. Der Referent fokussierte sich eingangs auf die Grundlagen der Arzthaftung und warf die Frage auf, ob der Einsatz Künstlicher Intelligenz im medizinischen Behandlungsprozess erlaubt oder womöglich sogar verpflichtend sei. Zunächst erläuterte er, dass die Wahl der angewandten Therapie im Ausgangspunkt Sache des Arztes sei und unter dessen „Therapiefreiheit“ falle. Es dürften deshalb neben den üblichen Standardmethoden auch sog. „Neulandmethoden“ angewendet werden. Insoweit bestünden allerdings gesteigerte Sorgfaltspflichten, die sich insbesondere als Überwachungspflichten konkretisierten. Erhöhte Anforderungen ergäben sich zudem an die Aufklärung der Patientinnen und Patienten. An diesen Grundsätzen sei auch die Anwendung von KI zu messen und könne mithin erlaubt sein.

Im Folgenden erörterte Eichelberger, ob der Einsatz von Robotik und Künstlicher Intelligenz in Abhängigkeit vom Autonomiegrad der Systeme als eine unzulässige Delegation der ärztlichen Tätigkeiten an „Nichtärzte“ einzustufen sei. Diese Problematik trete dann zutage, wenn die Systeme autonom handelten und den nicht delegierbaren Kernbereich ärztlicher Tätigkeiten übernähmen. Nach geltendem Verständnis wäre die Übertragung an robotischen Systeme ausgeschlossen, was jedoch de facto dazu führe, dass der Einsatz von medizinischen Innovationen in der medizinischen Praxis ausgeschlossen wäre. Um dem entgegenzuwirken, erwog der Referent als Lösungsansätze die Zertifizierung der Systeme und eine partielle „Gleichstellung“ zu den Medizinern. Eichelberger schloss den ersten Teil seines Vortrags mit der Feststellung ab, dass der Einsatz von KI und robotischen Systemen gegenwärtig regelmäßig als Neulandmethode einzuordnen sei, zu deren Einsatz keine Verpflichtung der Mediziner bestehe. Selbst wenn die Behandlung mittels der Systeme zur Standardmethode avanciere, bewege sich die Verpflichtung der Mediziner stets im Rahmen des Zumutbaren und Möglichen.

Im zweiten Teil seines Referats widmete sich Eichelberger haftungsrechtlichen Fragen. Er untersuchte, wer für die aus dem Einsatz eines mit einer Fehlfunktion behafteten Systems resultierenden Schäden hafte und gab einen Problemabriss zur Zurechnung von Fehlverhalten bei der vertraglichen und deliktischen Haftung. Abschließend erwog er eine haftungsrechtliche Privilegierung der Mediziner nach den Grundsätzen der horizontalen Arbeitsteilung beim Einsatz von KI-Systemen.

Panel 3: Regulierung

Dr. Jonas Botta (Forschungsreferent, Deutsches Forschungsinstitut für öffentliche Verwaltung), eröffnete das dritte, von Prof. Dr. Juliane Mendelsohn (Juniorprofessorin für Law and Economics of Digitization, Technische Universität Ilmenau) moderierte Panel „Regulierung“ mit einem Beitrag zum Thema „Paging Doctor Know-it-all: Zum Recht auf medizinische Behandlung mit KI“. Eingangs skizzierte der Referent die mit dem Einsatz von Künstlicher Intelligenz einhergehenden Chancen und Risiken in der Gesundheitsversorgung. Daran anknüpfend führte er zu einem Recht von Patienten auf KI-gestützte medizinische Behandlung nach geltendem Recht aus. In diesem Rahmen stellte er medizin- und sozialrechtliche Überlegungen an und untersuchte zunächst, ob sich insoweit ein bindender Anspruch gegen die behandelnden Mediziner ergebe. Ein solcher scheitere vornehmlich daran, dass Ärzte Therapiefreiheit genössen und der Einsatz von KI oftmals noch nicht de lege artis sei. Ebenfalls bestehe kein genereller Anspruch gegen die gesetzliche Krankenversicherung (GKV) oder den Gemeinsamen Bundesausschuss (G-BA), dessen Richtlinien maßgebend für den Umfang der GKV-Leistungen seien. Botta stellte sodann verfassungsrechtliche Überlegungen an und erwog, inwieweit sich ausnahmsweise Leistungsansprüche aus dem Grundrecht auf Gewährleistung eines menschenwürdigen Existenzminimums aus Art. 1 Abs. 1 GG iVm dem Sozialstaatsprinzip, dem Recht auf Leben und körperliche Unversehrtheit aus Art. 2 Abs. 2 S. 1 GG oder aus Art. 2 Abs. 1 GG iVm Sozialstaatsprinzip ergeben könnten.

Den zweiten Teil seines Referats widmete Botta der zukünftigen Entwicklung eines Rechts auf medizinische Behandlung mit KI. Ein Anspruch gegen die GKV käme vor allem dann in Betracht, wenn der Nutzen und die medizinische Notwendigkeit der autonomen Systeme feststünden, die jeweilige Behandlungsmethode dem Gebot der Wirtschaftlichkeit entspräche und sie deshalb in die Richtlinien des G-BA aufgenommen werden würde. Die Erstarkung eines Rechts auf Behandlung mit intelligenten Medizinprodukten werfe indes zahlreiche juristische Folgefragen auf (zB hinsichtlich der ärztlichen Aufklärungspflichten, Datenschutz und Datensicherheit sowie Haftung).

Sodann führte Dr. Svenja Behrendt (Postdoctoral Researcher in der Exzellenzinitiative HUMAN | DATA | SOCIETY, Universität Konstanz) zum „Einsatz von Künstlicher Intelligenz bei Entscheidungen in der Triage“ aus. Ausgangspunkt ihres Vortrags war der Einsatz von KI-Systemen zur Entscheidung über Behandlungspriorisierungen, dh über die Zurückstellung von Patientenbehandlungen zu Gunsten anderer. Die Referentin erläuterte das Potenzial von Maschinen als Entscheider in Notfallsituationen und wies zugleich auf die damit einhergehenden Risiken und rechtlichen Fragestellungen hin. Im Zentrum der Überlegung stehe die Allokation der oftmals begrenzten Ressourcen von Personal, Medikamenten oder benötigten medizinischen Werkzeugen. Um den größtmöglichen Nutzen aus den vorhandenen Mitteln zu ziehen, sei es notwendig, den Anspruch auf Behandlung jedes und jeder Einzelnen abhängig von verschiedenen Faktoren wie zB der Schwere der Verletzung zu gewichten. In diesem Zusammenhang setzte Behrendt sich mit der Triage-Entscheidung des BVerfG, der Problematik kollidierender Verhaltenspflichten und der Frage, welche Faktoren zur Würdigung des Gewichts einer Verhaltenspflicht verfassungsrechtlich herangezogen werden dürfen, auseinander.

Die Referentin zeichnete im weiteren Verlauf ihres Vortrags die potenziellen Anwendungsfelder von KI im Rahmen der Entscheidungsfindung ab. Diese verortete sie bei der Erhebung der Informationen zur Behandlungsbedürftigkeit und -dringlichkeit, der anschließenden Koordination der Ressourcen sowie bei Entscheidungen mit existenzieller Bedeutung. Damit einher gehe jedoch die Gefahr von Overfitting, Biases sowie einer überschätzten Prognoseleistung. Behrendt resümierte, dass der Einsatz von KI-Systemen mit Blick auf die aufkommenden Möglichkeiten nicht kategorisch auszuschließen sei, man sich den Schwächen und Problemfeldern aber bewusst sein müsse.

Prof. Dr. Alexandra Jorzig (Fachanwältin für Medizinrecht in Berlin und Düsseldorf, Professur für Sozial- und Gesundheitsrecht/Digital health, IB Hochschule für Gesundheit und Soziales, Berlin), schloss das letzte Panel mit einem Beitrag zur „Regulierung im Bereich KI-Medizin (AI-Act) und Produktsicherheit in der Medizin-Robotik“ ab. Eingangs thematisierte die Referentin, dass das bislang geltende Recht ungenügend sei, um den wachsenden Herausforderungen und Risiken, die von dem Einsatz Künstlicher Intelligenz ausgehen, hinreichend begegnen zu können. Dementsprechend begrüßenswert sei das europäische Bestreben, eine Verordnung zur Festlegung harmonisierender Vorschriften für Künstliche Intelligenz zu schaffen. Dieses stehe vor der Aufgabe, eine Balance zwischen der Begrenzung von Risiken einerseits und dem Interesse am Einsatz von KI andererseits zu schaffen, ohne sich innovationsfeindlich auszuwirken. Jorzig fokussierte sich auf den Anwendungsbereich des AI-Act-E und gab einen Überblick über die von der Verordnung vorgesehene Aufteilung der KI-Systeme in Risikogruppen. Auf Grundlage des weiten Begriffsverständnisses der Verordnung unterfielen auch KI-basierte Medizinprodukte dem AI-Act-E, die zum Teil als Hochrisiko-KI-Systeme einzuordnen seien, sodass sich spezielle Anforderungen in Bezug auf zB Überwachung, Dokumentation und Beobachtung ergeben. Die Referentin problematisierte anschließend das bislang ungeklärte Verhältnis des AI-Act-E zur EU-Medizinprodukteverordnung (Medical Device Regulation, MDR).

Den zweiten Teil ihres Vortrags widmete Jorzig der Produktsicherheit in der Medizinrobotik. Sie führte aus, dass für das Medizinprodukterecht in erster Linie die MDR sowie das Medizinprodukterecht-Durchführungsgesetz (MPDG) maßgeblich seien. Deren Regelungen seien leitend für u.a. Risikomanagementsysteme, Konformitätsbewertungen, Dokumentationspflichten und Produktprüfungen. Die Referentin hob zudem die Entschließung des Europäischen Parlaments v. 16.2.2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (ABl. EU C 252 v. 18.7.2018, S. 239) hervor, die einen thematischen Bezug zum Einsatz von Robotern aufweisen. Mit Blick auf die unverbindliche Wirkung der Empfehlungen komme ihnen jedoch keine eigenständige Wirkungskraft zu. Abschließend resümierte Jorzig, dass zwar kein dem AI-Act-E vergleichbares, einheitliches Regelungswerk zur Gewährleistung der Produktsicherheit bei Medizin-Robotik existiere, dieses jedoch auf Grund der umfassenden Regelungen des Medizinprodukterechts nicht notwendig sei. Soweit es zur Integration von Künstlicher Intelligenz in (Medizin-)Roboter komme, seien jedoch, im Falle von dessen Inkrafttretens, die Regelungen des AI-Acts zu beachten.

Prof. Dr. Martin Ebers (Professor für IT-Recht, Universität Tartu, Präsident der „Robotics & AI Law Society“) beendete die Tagung mit einer Schlussbemerkung.

Anzeigen

MMR kostenlos testen

IT-Recht Plus Premium

BECK Stellenmarkt

Teilen:

Menü