Qualche mese fa – marzo 2025 – la American Civil Liberties Union (ACLU), l’Unione Americana per le Libertà Civili del Colorado ha presentato un reclamo davanti alla Civil Rights Division, una divisione del Dipartimento della Giustizia USA che ha il compito di far rispettare le leggi federali sui diritti civili, cioè tutte quelle norme che tutelano i cittadini contro discriminazioni illegittime per motivi di razza, sesso, religione, disabilità, origine nazionale e altri fattori e davanti alla Equal Employment Opportunity Commission (EEOC), un’agenzia federale americana che ha compiti analoghi.

Il j’accuse dell’ACLU punta l’indice contro la HireVue, una società leader nel mercato delle soluzioni di intelligenza artificiale applicate alla selezione del personale. È tanto duro quanto istruttivo: il suo sistema che in molti casi rappresenta ormai l’unica porta di accesso ai processi di selezione del personale o di avanzamento in carriera di un’azienda è palesemente discriminatorio perché non è accessibile a chi avendo problemi di udito non può partecipare a interviste condotte da robot e affini basate esclusivamente su interazione vocale e prive di sottotitoli e, soprattutto, incapaci di riconoscere e valutare adeguatamente chi, perché indigeno o affetto da difficoltà uditive, ha un accento particolare, non comune.
Questa la storia all’origine dell’azione come raccontata dalla stessa ACLU nel reclamo. «Come descritto nel presente documento, D.K. è una donna indigena e non udente che parla con un accento tipico dei non udenti. Ha presentato domanda per una posizione di responsabile stagionale presso Intuit, Inc. (“Intuit”) ma è stata respinta a causa della sua disabilità e della sua razza. D.K. aveva lavorato per Intuit per diversi anni, durante i quali aveva ricevuto feedback positivi sulla sua comunicazione e bonus annuali in base alle sue eccellenti prestazioni. Aveva l’esperienza, la formazione e le qualifiche necessarie per essere promossa al ruolo di responsabile stagionale».
Leggi anche: Relazioni pericolose: quando algoritmi e intelligenze artificiali non fanno bene ai lavoratori
«Tuttavia – prosegue la denuncia – nell’ambito del processo di assunzione dei responsabili stagionali, Intuit ha utilizzato un sistema automatizzato di colloquio e valutazione video fornito da un fornitore terzo, HireVue, Inc. (“HireVue”), che difficilmente è in grado di riconoscere e analizzare accuratamente il linguaggio di un candidato sordo e che, di conseguenza, è suscettibile di assegnare un punteggio inferiore a un candidato sordo. La piattaforma di video-colloquio di HireVue – viene spiegato nel documento – fornisce istruzioni e pone domande in modo udibile attraverso la registrazione di una persona che parla e, durante il colloquio di D.K., alcune parti del contenuto udibile non erano sottotitolate».
«D.K. aveva precedentemente informato il responsabile del team Accessibilità di Intuit che HireVue era inaccessibile e dannoso per i candidati non udenti – viene sottolineato -, ma Intuit ha continuato a utilizzare il prodotto e ha richiesto a D.K. di sottoporsi a un colloquio HireVue quando ha successivamente presentato la sua candidatura per la posizione di Seasonal Manager».
«D.K. – si legge -ha anche richiesto una soluzione ragionevole per avere sottotitoli generati da esseri umani durante il colloquio, in modo che le istruzioni e le domande fossero accessibili, ma Intuit non ha fornito la soluzione richiesta. Il feedback che D.K. ha ricevuto dopo che le è stata negata la posizione dimostra l’impatto negativo che il colloquio HireVue ha probabilmente avuto sulla decisione di Intuit di non promuovere D.K., poiché si concentrava sul suo stile di comunicazione e sulla concisione nel rispondere alle domande del colloquio e le raccomandava persino di “esercitarsi nell’ascolto attivo”».
Inutile aggiungere anche solo una parola. I fatti parlano da soli. La decisione, sulla base delle regole del diritto – quello americano in questo caso -, la pronunceranno, naturalmente, le autorità competenti ma, quella sulla base delle regole etiche e morali che dovrebbero governare la società nella quale viviamo e vivremo, è, forse, alla portata di tutti ed è di colpevolezza nei confronti di chiunque lasci che si consumino discriminazioni di questo genere per colpa di un algoritmo, che si tratti di chi lo ha sviluppato, dimenticando che il mondo non è fatto da “persone nella medie” ma da persone diverse l’una dall’altra ma tutte con gli stessi diritti o di chi sceglie, per comodità e interessi economici, di scommettere oltre la soglia dell’umanamente sostenibile su un algoritmo di questo genere accettando il rischio di discriminazioni insostenibili.
La ricerca di un posto di lavoro e il suo ottenimento sono momenti unici e straordinari nella vita di una persona e possono cambiarla per sempre: il rischio di discriminazioni, in questo caso, è semplicemente intollerabile.
Sfortunatamente il fenomeno nel quale si inserisce la storia che l’ACLU del Colorado ha appena portato all’attenzione delle Autorità competenti ha già assunto dimensioni universali perché, secondo uno studio di Accenture e dell’Harvard Business School, il ricorso a soluzioni diversamente intelligenti nel processo di selezione del personale è già la regola, in tutto il mondo, da anni. Forse varrebbe la pena avviare, tutti insieme, una discussione su quello che sta accadendo e correre ai ripari prima che sia troppo tardi.