Falsche Info von Air Canada Chatbot führte zu teurem Ticket (16. Februar 2024/21:23) Bild: Air Canada Ein Chatbot einer Airline spuckte fehlerhafte Informationen aus. Ein Gericht urteilte nun über den Fall. Wenig kundenfreundlich verhielt sich ein KI-Assistent von Air Canada. Hintergrund ist eine Art Trauer-Tarif. Die Airline bietet ihn für Reisen an, die stattfinden, weil Verwandte gestorben sind. Diese Aktion wollte Jake Moffatt nutzen, nachdem seine Großmutter verstorben war. Um Informationen zu dem Ablauf zu bekommen, kontaktierte er den Chatbot der Airline. Jener riet ihm, das Flugticket zu buchen und dann nachträglich einen Antrag für den "Trauer-Tarif" zu stellen. Der Ratschlag stellte sich als falsch heraus. Man darf das Ticket nicht vorab buchen, sondern muss direkt beim Kauf die Aktion in Anspruch nehmen. Das steht an anderer Stelle der Air-Canada-Webseite, der Chatbot hatte einfach die falsche Information ausgespuckt. Moffatt blieb auf den unnötig bezahlten Mehrkosten für das Ticket, immerhin umgerechnet über 600 Euro, sitzen. Air Canada zufolge könne das Unternehmen nicht für die falsche Information des Chatbots haftbar gemacht werden.
|
https://ress.at/falsche-info-von-air-canada-chatbot-fuehrte-zu-teurem-ticket-news17022024162920.html
© by RessServerWorks, 2024