GI: Arbeitskreis „Autonome Systeme, Institutionen und Recht“ gegründet


Der von Hochschulprofessoren aus den Fachbereichen Informatik, Rechtswissenschaften und Ökonomie gegründete Arbeitskreis „Autonome Systeme, Institutionen und Recht (ASIR)“, der als ordentlicher Arbeitskreis der Gesellschaft für Informatik (GI) etabliert ist, setzt sich zum Ziel, die aus dem Einsatz von Künstlicher Intelligenz (u.a. autonom handelnde Softwareagenten und Roboter) entstehenden technischen, rechtlichen und wirtschaftlichen Probleme zu analysieren und Lösungen für die industrielle Anwendung zu entwickeln.

Im Mittelpunkt des Arbeitskreises steht die technische, institutionelle und rechtliche Beherrschbarkeit „autonomer Systeme“, also von technischen Systemen, die im Sinne der Künstlichen Intelligenz (KI) als Softwareagenten konzipiert sind oder die, wie z.B. bei Drohnen oder autonomen Kraftfahrzeugen denkbar, von Softwareagenten gesteuert werden. Softwareagenten zeichnen sich u.a. durch Anpassungsfähigkeit an wechselnde Einsatzszenarien, Lernfähigkeit und insgesamt durch ein Maß an Autonomie aus, aber auch durch die Möglichkeit, sich während der Laufzeit dynamisch mit anderen Agenten zu Multiagentensystemen (MAS) zusammenzuschließen.

 

Auf einer Tagung an der Universität Hohenheim berichteten die Mitglieder des Arbeitskreises von aktuellen Ergebnissen laufender Forschungsprojekte. So werden z.B. im Projekt „efficientRecruting 2.0“ der FOM Hochschule München  Softwareagenten für den Informationshandel im Bereich der Personalsuche eingesetzt und können dabei selbstständig über die Weitergabe von Informationen an potenzielle Arbeitgeber bzw. Vermittler entscheiden. Dies zeige, dass solche Systeme zukünftig verstärkt in den Alltag von Konsumenten treten werden. Ein wichtiges Forschungsgebiet sei daher die Wahrnehmung von Sicherheit bzw. Bedrohungen durch solche Informationssysteme. In der dazu durchgeführten Studie der Universität Bayreuth zeige sich, dass Verzerrungseffekte auftreten können und es bei Konsumenten zu fehlgeleiteten Interpretationen bezüglich der Sicherheit bzw. der Bedrohung kommt.

 

Die Autocomplete-Entscheidung des BGH (MMR 2013, 535 m. Anm. Engels) führt die Haftungsfolgen eines automatisierten Systemverhaltens bei einer Suchmaschine aus und verweist im Kern auf das algorithmisch gesteuerte Suchprogramm. Hier stellte sich dem Arbeitskreis die Frage nach den Folgen der BGH-Entscheidung für autonome Systeme und vor allem nach der Abgrenzung der Handlungsweisen autonomer Softwareagenten von Softwaresystemen (hier Suchmaschinen) mit vollständig deterministischem Verhalten. Voraussetzung für eine Haftung ist, dass der Störer die Störungsquelle beherrscht und/oder Einfluss darauf hat. Eben dies kann bei autonomen Systemen nicht mehr der Fall sein. Zur Klärung dieser Fragen wird der Arbeitskreis weitere Sitzungen abhalten.