Unternehmen setzen zunehmend sogenannte Chatbots - also mithilfe künstlicher Intelligenz generierte Antworten - ein, um mit ihren Kunden zu kommunizieren. Das spart der Firma Personal und beschert dem Kunden eine umgehende Antwort auf seine Fragen - wenn sie denn korrekt ist. In einem Fall, den ein Richter am Civil Resolution Tribunal of British Columbia zu entscheiden hatte, ging es nun um eine Fehlinformation der KI (Urteil vom 14.02.2024 - BCCRT 149).
Es begann mit einem Trauerfall und einem eigentlich freundlichen Angebot: Nach dem Tod seiner in der kanadischen Provinz Ontario lebenden Großmutter informierte sich ein Mann auf der Website der Fluggesellschaft Air Canada über Flüge von Vancouver nach Toronto. Dabei fand er heraus, dass die Gesellschaft sogenannte Trauertarife, also Flüge zu vergünstigten Preisen für Menschen, die unmittelbar nach dem Tod eines Familienmitglieds in dessen Heimat fliegen wollen, anbot.
Chatbot gibt Fehlinformation über Ticket-Rabatt
Bei seinem Besuch auf der Website schrieb der Mann sodann mit einem Chatbot-Programm, das Air Canada anbot. Der Chatbot informierte ihn, dass er das Last-Minute-Ticket nach Toronto auch zunächst zum normalen Tarif kaufen und binnen 90 Tagen danach eine Erstattung in Höhe der Differenz zum reduzierten Reisepreis beantragen könne. So sollte der Preis von 794,98 Dollar sowie für das Rückflugticket von 845,38 Dollar auf lediglich etwa 380 Dollar pro Ticket zuzüglich anfallender Gebühren sinken. Der Chatbot verlinkte auch den Abschnitt der Website, auf dem sich Kunden über die Trauertarife informieren konnten.
Hätte der Mann hierauf geklickt, hätte er feststellen können, dass eine solche Erstattung eigentlich gar nicht vorgesehen und die Aussage des Chatbots somit unzutreffend war. Er verließ sich jedoch auf die Information aus der Sprechblase und buchte zunächst reguläre Tickets für Hin- und Rückflug. In einem vorherigen Telefongespräch mit einem Mitarbeiter der Fluggesellschaft bestätigte dieser zwar die Möglichkeit einer Rabattierung, man sprach aber nicht über das Prozedere. Als der Mann später einen Erstattungsantrag stellte, wie es ihm der Chatbot geraten hatte, lehnte die Airline ihn unter Hinweis auf ihre Rabattkonditionen ab. Vor Gericht verlangte der Kunde nun die Rabattsumme, die ihm seiner Meinung nach zustand.
Chatbot hat gleichen Aussagewert wie Website-Informationen
Mit seinem Urteil sprach ihm das Gericht die Summe zu. Die Fluggesellschaft, so die Ansicht des Richters, müsse sich an der Aussage des von ihr bereitgestellten Chatbots festhalten lassen. Das Unternehmen muss demnach einen nachträglichen Rabatt in Höhe von 650,88 Dollar nebst Anwalts- und Gerichtskosten an den Kläger zahlen.
Zur Begründung schreibt das Gericht, Air Canada sei haftbar für die Aussage des Chatbots, die mit Aussagen auf der Website des Unternehmens gleichzusetzen sei, die schließlich auch verbindlich seien. Der Argumentation der Fluggesellschaft, der Chatbot sei mit einem menschlichen Mitarbeiter zu vergleichen, an dessen Aussage das Unternehmen nicht gebunden sei, bezeichnete der Richter als "bemerkenswert". Tatsächlich mache es keinen Unterschied, ob eine Aussage in üblicher Form auf der Website veröffentlicht oder mittels eines Chatbots an den Kunden übermittelt werde. Air Canada habe in diesem Fall auch nicht die nötige Sorgfalt walten lassen, um sicherzustellen, dass die Aussagen des virtuellen Assistenten korrekt seien.
Auch sei für Kunden nicht erkennbar, dass die Aussage des Bots weniger vertrauenswürdig sein solle, als eine auf der Website niedergeschriebene. Dementsprechend ließ das Gericht auch den Vortrag der Fluggesellschaft, der Kunde hätte im Rahmen der ihm obliegenden Sorgfalt anschließend die Informationen auf der Website nachlesen müssen, nicht gelten.
Weil der Mann glaubhaft machte, dass er - hätte er gewusst, dass er den Rabatt nicht erhalten würde - die Flüge nicht gebucht hätte, sprach ihm das Gericht folglich die Differenz zwischen dem rabattierten und dem gezahlten Flugpreis zu.