Anche i chatbot possono commettere errori, come dimostra la vicenda di Jake Moffatt. Qualche tempo fa, Moffatt prenotò un volo per il funerale della nonna tramite il sito di Air Canada, con l’aiuto di un assistente virtuale. Quest’ultimo gli assicurò che la compagnia offriva tariffe ridotte per i viaggi last minute dovuti a tragedie personali (tariffa di lutto). Sulla base di quest’informazione, Moffatt acquistò un biglietto di quasi 600 dollari, aspettandosi di ottenere un rimborso parziale come indicatogli dal chatbot: l’unica condizione era che presentasse la richiesta entro 90 giorni.
Tuttavia, alla richiesta di rimborso di Moffatt, Air Canada dichiarò che ciò non era possibile in quanto il chatbot aveva fornito informazioni errate. Nonostante le proteste del cliente, la compagnia si rifiutò di risarcirlo, affermando che l’assistente virtuale operava come entità legale separata, e di conseguenza la compagnia non rispondeva delle sue azioni. Solo dopo aver presentato un reclamo legale, Moffatt ottenne finalmente ciò che gli spettava: oltre 600 dollari per danni e spese legali, per via dell’inganno subito.
Nella sua decisione, Christopher Rivers, membro del tribunale, sottolineò che sebbene il chatbot fosse uno strumento interattivo, era comunque parte integrante del sito web di Air Canada. Pertanto, la compagnia era responsabile di tutte le informazioni fornite sul proprio sito, sia che provenissero da una pagina statica sia che fossero fornite da un assistente virtuale. Questa vicenda mette in luce la responsabilità diretta delle aziende nell’uso di assistenti digitali e dovrebbe servire da monito non solo per Air Canada, ma anche per tutte le altre compagnie che adottano la tecnologia per migliorare l’accessibilità del proprio servizio agli utenti.
A.L.R