La storia è semplice, la lezione preziosa. A seguito della morte della nonna un cittadino canadese, volendo partecipare ai funerali ha cercato, senza successo, sul sito dell’Air Canada se quest’ultima avesse tariffe speciali per esigenze legate a eventi luttuosi. Non trovando risposta ha chiesto al ChatBot messo a disposizione dalla compagnia aerea sul suo sito e il bot gli ha risposto che aveva due opzioni: o comprare un biglietto direttamente scontato attraverso una speciale procedura o comprare un biglietto qualsiasi e, nei successivi novanta giorni, chiedere un rimborso parziale in ragione della speciale ragione del viaggio.
Detto, fatto. Il consumatore canadese ha, immediatamente, comprato il biglietto a prezzo pieno e ha poi chiesto il rimborso secondo le istruzioni del ChatBot. A quel punto, però, Air Canada ha rifiutato il rimborso, sostenendo che i propri termini d’uso non lo prevedono e che il consumatore avrebbe potuto facilmente avvedersene semplicemente leggendoli, tanto più che il ChatBot, nella sua risposta, gliene aveva condiviso il link. La storia sarebbe potuta finire qui, il cittadino canadese avrebbe potuto accettare un buono da 200 dollari da spendere su un prossimo volo e nessuno si sarebbe ricordato della vicenda. Ma ci sono volte nelle quali, la determinazione di un singolo consumatore porta all’affermazione di principi destinati a fare scuola.
Quanto vale la parola di un Chatbot?
E così è stato. Il consumatore convinto di non aver sbagliato nel fare affidamento nelle parole di un ChatBot messo a disposizione dalla compagnia aerea sul proprio sito internet e di non esser tenuto a verificare le sue risposte andando a leggere pagine e pagine di termini d’uso ha trascinato Air Canada davanti ai giudici che lo scorso 14 febbraio hanno messo mero su bianco quello che a qualcuno potrebbe sembrare ovvio ma non lo è e, anzi, forse, lo sarà sempre di meno: della parola data da un ChatBot e delle sue promesse risponde l’azienda che ha scelto di usarlo.
Air Canada vincolata alla parola di un bot
A niente è valso il tentativo di Air Canada di sostenere, probabilmente per la prima volta davanti a un giudice canadese, che i ChatBot vivono di vita autonoma e che il semplice fatto di aver scelto di usarne uno non potrebbe obbligare una società a rispondere delle sue parole e azioni specie quando – come nel caso di specie – un consumatore sia posto nella condizione di riconoscere l’errore del ChatBot “semplicemente” andando a leggere altri documenti resi disponibili dalla stessa società.
Ilgiudice ha, quindi, ordinato a Air Canada di rimborsare al consumatore quanto il ChatBot gli aveva promesso avrebbe ricevuto in rimborso. Lezione interessante per tutti lungo la strada dell’arruolamento sempre più intenso di robot di ogni genere in attività commerciali e professionali diverse. Guai a fermarsi e a rinunciare alle opportunità offerte da algoritmi e intelligenze artificiali ma occhio a quello che bot e robot dicono e fanno sotto il nostro marchio perché sembra proprio che il rischio di esserne poi chiamati a rispondere ci sia e sia elevato. Qui la decisione per esteso dei giudici canadesi.
Come sempre se volete saperne di più su quello che è accaduto in settimana in giro per il mondo su dati, privacy e dintorni, potete leggere qui le notizie quotidiane di PrivacyDaily o iscrivervi alla newsletter di #cosedagarante.