Kanadisches Schiedsgericht für Zivilsachen, Urt. v. 14.2.2024 – SC-2023-005609; Moffatt v. Air Canada, 2024 BCCRT 149
Immer mehr Unternehmen nutzen Künstliche Intelligenz (KI) für Callcenter- und Chat-Angebote gegenüber ihren Kunden. Doch wie verhält es sich hier mit der Haftung für die von der KI gegebene Auskunft? In einem aktuellen Fall in Kanada versuchte das Unternehmen, die KI als unabhängigen Beauftragten darzustellen, für den keine Haftung übernommen werden konnte. Das Gericht sah das anders.
Praxis-Info!
Problemstellung
Nach einem Todesfall in der Familie buchte ein Kunde einen Hin- und Rückflug von Vancouver nach Toronto. Zuvor hatte er sich auf der Webseite nach einem sogenannten „Trauerfall-Tarif“ erkundigt. Laut Auskunft des Chatbots auf der Webseite konnte man innerhalb von 90 Tagen nach dem Flugdatum einen Antrag auf den „Trauerfall-Tarif“ stellen.
Auf Basis dieser Auskunft buchte der Kunde seine Flüge und stellte innerhalb der genannten Frist einen Antrag auf Erstattung. Es stellte sich heraus, dass die Auskunft des Chatbots fehlerhaft gewesen war – ein Antrag auf den Trauerfall-Tarif musste bei Buchung gestellt werden; ein nachträgliches Anpassen des Flugpreises war in den Allgemeinen Geschäftsbedingungen (AGB) der Fluggesellschaft nicht vorgesehen.
Lösung
Aus Sicht des zuständigen kanadischen Richters stellte die fehlerhafte Chatbot-Aussage eine fahrlässige Falschdarstellung (negligent misrepresentation) dar, durch welche sich das Unternehmen schadensersatzpflichtig gemacht hat. Anders als von der Fluggesellschaft vorgebracht, stellt der Chatbot keinen unabhängigen Beauftragten dar. Es handelt sich lediglich um einen interaktiven Teil der Webseite. Nicht ersichtlich ist, weshalb für die Inhalte des dynamischen Teils der Webseite andere Regeln gelten sollten als für den statischen Teil. Die Fluggesellschaft hat es unterlassen, angemessen Maßnahmen zur Sicherstellung der Richtigkeit der Chatbot-Antworten zu ergreifen. Der Richter verpflichtet die Fluggesellschaft daher, dem Kunden die Differenz zwischen dem gezahlten Ticketpreis und dem Trauerfall-Tarif zu erstatten.
Immer mehr Unternehmen versuchen, auf den „KI-Zug“ aufzuspringen, um nicht als rückständig zu gelten. Dabei ist aber zu beachten, dass neue Technologien neben Chancen immer auch Risiken mit sich bringen. Insbesondere dann, wenn die KI dazu verwendet wird, selbstständige Aktionen vorzunehmen (z.B. die Beantwortung von Kundenfragen oder automatisches Kontieren von Rechnungen), muss sehr genau geprüft werden, in welchem Rahmen die KI entscheiden darf und wie diese Entscheidungen kontrolliert werden. Andernfalls drohen Rechts- und Reputationsrisiken. |
Christian Thurow, Dipl.-Betriebsw. (BA), Senior Business Audit Manager, London (E-Mail: c.thurow@thurow.co.uk)
BC 3/2024
BC20240311