“Nel Medioevo c’era il signore della terra, il landlord, che dava al povero contadino il diritto di coltivarla ma esigeva in cambio la metà del raccolto; oggi abbiamo il signore del Web, il datalord, che ci dà accesso ai suoi servizi esigendo però che noi coltiviamo per lui dati di grande valore”. Conversazione con Padre Benanti
Avevamo conversato piacevolmente con Padre Paolo Benanti, docente di etica alla Pontificia Università Gregoriana, esperto di innovazione ed etica delle tecnologie, in merito alle sfide che ci riserva il presente, fatto di algoritmi, dati che vengono ceduti con leggerezza dagli internauti ai colossi di Internet e di intelligenze artificiali sempre più invasive e insidiose, nel corso di SIOS21. È stato perciò un piacere incontrarlo nuovamente al Meeting di Rimini, per parlare col francescano del Terzo Ordine Regolare anche del suo ultimo libro, “Human in the loop. Decisioni umane e intelligenze artificiali” (Mondadori Università, prefazione di Giuliano Amato), perché il tema è di quelli impellenti: siamo noi a condizionare le macchine o accade sempre più spesso il contrario? E cosa succede quando diamo in pasto alle IA dati contenenti pregiudizi?
“La Rete nasce libera, ma era il Web 1.0, dopodiché nessuno di noi si è messo a costruire il suo sito o i suoi servizi: abbiamo usato quelli che le grandi aziende ci hanno messo a disposizione gratis. Ma non esistono pasti gratis…”
Padre Benanti, nel suo ultimo libro ragiona sul modo in cui gli algoritmi già oggi influenzano il nostro agire: può farci un esempio?
È esperienza di ciascuno di noi aver sperimentato il funzionamento di questo tipo di algoritmi quando si compra un libro sulle grandi piattaforme: queste piccole ricette informatiche, da nostri micro-comportamenti, ci classificano come utenti interessati a qualcosa, suggerendoci altri testi ai quali potremmo essere interessati…
“Se applichiamo gli algoritmi predittivi al comportamento degli esseri umani, non si limiteranno più a predire una preferenza, ma arriveranno a influenzarla”
Quindi con questi suggerimenti ci starebbero già influenzando?
Esatto. Una cosa è applicare questi algoritmi predittivi a un motore: riescono a predire quando si romperà, come succede alla Stazione Spaziale Internazionale, ma se li applichiamo agli esseri umani, non si limitano a predire un comportamento, ma lo producono anche, almeno in parte. Questo è il grande problema connesso all’Intelligenza artificiale che mette anche un po’ in gioco la nostra libertà.
Quindi è l’uomo a condizionare la macchina, istruendola sui propri gusti anche durante una semplice ricerca di un film o di un libro all’interno di un catalogo, o è più facile che accada l’inverso?
Diciamo che il processo è a due direzioni: gli algoritmi vengono in prima istanza istruiti sui nostri gusti e provano a etichettarci. Se le scelte sono di una persona che ha pregiudizi (preferisce un sesso piuttosto che un altro, una etnia piuttosto che un’altra…), la macchina li fa propri. Dopodiché, lavorando instancabilmente giorno e notte, continuerà a lavorare anche quando l’uomo va a dormire, producendo a sua volta pregiudizi. È un po’ come se avessimo a che fare con dei grandi aspiratori che risucchiano tutto ciò che trovano in strada, nel bene o nel male, risputandolo fuori moltiplicato all’infinito.
Abbiamo parlato di pregiudizi, parliamo allora di etica: nello sviluppo tecnologico ha un suo spazio o si tende a ignorarla?
Una delle risorse più grandi delle aziende hi-tech sono gli ingegneri, che oltre al salario vogliono anche che il proprio lavoro abbia un impatto positivo nella società. Vogliono che l’azienda produca tecnologia che faccia del bene: nessun ingegnere vorrebbe concorrere a sviluppare il software per un drone killer che attacchi persone innocenti. L’etica della tecnologia deve allora utilizzare questi spazi per operazioni win-win: vince l’azienda che ha dalla sua persone motivate e vince l’intera società.
“Gli algoritmi sono un po’ grandi aspiratori che risucchiano tutto ciò che trovano in strada, nel bene o nel male, risputandolo fuori moltiplicato all’infinito”
E questo basta?
No, dobbiamo essere coscienti che ciò da solo non basta. L’etica è una voce, per quanto potente e profonda che si appella alla coscienza delle persone, ma servono anche guard rail più rigidi per aiutare la società a stare nella carreggiata di questa nostra strada che ci porta al futuro. Occorrono perciò leggi che siano punti di riferimento fissi per tutti.
Gli algoritmi della profilazione, o del funzionamento di Google, non sono conoscibili: sappiamo ben poco sul loro conto. La rete è davvero libera e democratica dato che ogni nostra ricerca può essere teleguidata?
La Rete nasce libera, ma era il Web 1.0, dopodiché nessuno di noi si è messo a costruire il suo sito o i suoi servizi: abbiamo usato quelli che le grandi aziende ci hanno messo a disposizione gratis. Ma non esistono pasti gratis, come dicono gli americani. E infatti se andiamo in un pub e troviamo le noccioline a disposizione di tutti è solo perché, facendoci venire sete, spingeranno alla consumazione di un maggior numero di bevande. Lo stesso meccanismo si riscontra sul Web oggigiorno: i dati che noi lasciamo all’interno delle app vengono monetizzati per la pubblicità. Se noi oggi intendiamo la libertà come declinazione della democrazia, da questo punto di vista siamo senz’altro tornati indietro nel tempo, nel Medioevo…
“Andrebbe democratizzato questo grande feudalesimo digitale che abbiamo accettato”
In che senso?
Nel Medioevo c’era il signore della terra, il landlord, che dava al povero contadino il diritto di coltivare la terra ma esigeva in cambio la metà del raccolto; oggi abbiamo il signore del Web, il datalord, che ci dà accesso ai suoi servizi ma in cambio esige che noi coltiviamo dati di grande valore. Ecco, forse più che libertà andrebbe democratizzato questo grande feudalesimo digitale che abbiamo accettato.