Falsche Info von Air Canada Chatbot führte zu teurem Ticket

16. Februar 2024, 21:23 |  0 Kommentare


Bild: Air Canada

Ein Chatbot einer Airline spuckte fehlerhafte Informationen aus. Ein Gericht urteilte nun über den Fall.

Wenig kundenfreundlich verhielt sich ein KI-Assistent von Air Canada. Hintergrund ist eine Art Trauer-Tarif. Die Airline bietet ihn für Reisen an, die stattfinden, weil Verwandte gestorben sind.

Diese Aktion wollte Jake Moffatt nutzen, nachdem seine Großmutter verstorben war. Um Informationen zu dem Ablauf zu bekommen, kontaktierte er den Chatbot der Airline. Jener riet ihm, das Flugticket zu buchen und dann nachträglich einen Antrag für den "Trauer-Tarif" zu stellen.

Der Ratschlag stellte sich als falsch heraus. Man darf das Ticket nicht vorab buchen, sondern muss direkt beim Kauf die Aktion in Anspruch nehmen. Das steht an anderer Stelle der Air-Canada-Webseite, der Chatbot hatte einfach die falsche Information ausgespuckt.

Moffatt blieb auf den unnötig bezahlten Mehrkosten für das Ticket, immerhin umgerechnet über 600 Euro, sitzen. Air Canada zufolge könne das Unternehmen nicht für die falsche Information des Chatbots haftbar gemacht werden.



Mehr dazu findest Du auf futurezone.at





Kurze URL:


Bewertung: 3.0/5 (3 Stimmen)


Das könnte Dich auch interessieren:


Ähnliche News:

Weitere News:

Einen Kommentar schreiben

Du willst nicht als "Gast" schreiben? Logg Dich Hier ein.

Code:

Code neuladen

Kommentare
(0)

Bitte bleibe sachlich und fair in deinen Äußerungen. Sollte dein Kommentar nicht sofort erscheinen, ist er in der Warteschlange gelandet und wird meist zeitnah freigeschaltet.




Kommentare:

Du hast bereits für diesen Kommentar abgestimmt...

;-)

Top