Anche i chatbot possono sbagliare. Lo dimostra alla perfezione la storia di Jake Moffatt, che qualche tempo fa ha prenotato un volo per il funerale della nonna dal sito di Air Canada, affidandosi al supporto di un assistente virtuale che lo ha informato che la compagnia aerea offriva tariffe ridotte per i passeggeri che prenotavano viaggi last minute a causa di tragedie personali. E così Moffatt ha scelto di acquistare un biglietto da quasi 600 dollari, dopo che il chatbot gli ha promesso che avrebbe recuperato parte dei suoi soldi, ammesso che presentasse la richiesta di rimborso entro 90 giorni dall’acquisto.
Ma quando l’uomo ha cercato di ottenere quello che gli era stato promesso, i referenti di Air Canada gli hanno detto che era impossibile, e che il chatbot aveva inventato tutto e gli aveva fornito le informazioni sbagliate. Dal canto suo, però, la compagnia si è dimostrata del tutto disinteressata a risarcire Moffatt, sostenendo che l’assistente fosse un’entità legale separata, “responsabile delle proprie azioni”. Dopo aver presentato un reclamo al tribunale canadese, però, l’uomo è riuscito finalmente a ottenere quello che gli spetta: oltre 600 dollari in danni e spese giudiziarie per essere stato ingannato dal chatbot.
“Sebbene un chatbot abbia una componente interattiva, è comunque solo una parte del sito web di Air Canada – ha scritto nella decisione Christopher Rivers, membro del tribunale -. Dovrebbe essere ovvio per Air Canada che è responsabile di tutte le informazioni presenti sul suo sito web. Non fa differenza se le informazioni provengono da una pagina statica o da un chatbot”. Insomma, le aziende che scelgono di utilizzare un assistente digitale ne sono direttamente responsabili. E questo deve essere chiaro non solo ad Air Canada, ma anche a tutte le altre compagnie che scelgono di ricorrere alla tecnologia per rendere il proprio servizio più facilmente accessibile per gli utenti. Questo, e molto altro, ci insegna la storia di Jake Moffatt.
Fonte : Wired