L’intervista a Ivana Bartoletti, esperta di AI e privacy, già “Woman of the Year” ai Cyber Security Awards di Londra. Lavora anche a livello europeo per un futuro tecnologico più equo e attento ai diritti. È lei la protagonista della nostra nuova puntata di Unstoppable Women
«Io penso che l’AI sia già in parte regolamentata. Il problema è che spesso viene usata come scusa per bypassare le norme che ci sono già». In un quadro tecnologico che evolve di continuo, con Big Tech e startup che sperimentano soluzioni di intelligenza artificiale sempre più performanti, il consiglio che arriva da un’esperta come Ivana Bartoletti è di non inseguire questi soggetti. Invece di correre i cento metri, è una maratona quella che dovrebbero immaginarsi i legislatori a tutti i livelli. Con esperienza nel mondo della privacy e dell’AI, si occupa di etica e governance ed è consulente di imprese in varie parti del mondo e ricopre il ruolo di Global Chief Privacy Officer della società Wipro. Con lei, protagonista di questa nuova puntata della rubrica Unstoppable Women, ci concentreremo sulle sfide che hanno di fronte non tanto le società tech, ma gli altri stakeholder che con questo mondo che corre rapido devono rapportarsi.
Mentre scriviamo in giro per il mondo sono tante le attività da parte dei governi per ragionare di AI e prendere poi le decisioni per arginare i potenziali pericoli. Citiamo il caso degli Stati Uniti: Joe Biden si è più volte esposto sulla questione appellandosi a una «innovazione responsabile». Nel vecchio continente si è mossa anche la Gran Bretagna: il governo di Rishi Sunak ha convocato un summit globale sulla questione, in programma a inizio novembre. La presidente della Commissione Europea, Ursula von der Leyen, ha dichiarato nell’ultimo discorso sullo stato dell’Unione che «centinaia di sviluppatori ed esperti hanno lanciato un avvertimento che voglio citare: mitigare il rischio di un’estinzione provocata dall’intelligenza artificiale dovrebbe essere una priorità globale». In Italia di recente si è poi parlato della Commissione algoritmi.
In un quadro simile, di attenzione e anche di legittimi sospetti, come bisognerebbe muoversi? «Il lavoro a livello internaizonale c’è – ha spiegato Bartoletti -. Lavoro nel Consiglio d’Europa e anche l’ONU sta facendo passi avanti». Nei mesi scorsi il Ceo di OpenAI, Sam Altman, ha avanzato la proposta di creare un’agenzia internazionale per l’AI sul modello di quella fondata per l’energia atomica. «Sono d’accordo sul fatto che serva un’agenzia, ma dico anche che queste aziende non si possono più fermare». O meglio, se ne possono correggere determinate azioni sul web, come quella legata alla raccolta dei dati. Si prenda l’esempio di ChatGPT, il software di OpenAI che da quasi un anno si sta perfezionando cibandosi di ogni forma di conoscenza disponibile sul web mediante il cosiddetto data scraping. Tanti soggetti – autori, artisti, giornali – hanno lamentato il fatto che così parte del loro lavoro viene utilizzato senza nessun rispetto della legge sul diritto d’autore. «Io mi chiedo però: è veramente violazione del copyright o dobbiamo invece pensare che quel che interessa alle Big Tech è invece l’aggregazione. Non dobbiamo guardare ai granelli di sabbia, ma a tutta la spiaggia. Credo si debba rivalutare l’idea di diritto d’autore per come l’abbiamo avuta».
A un anno dalle elezioni presidenziali negli Stati Uniti l’altra questione da affrontare rispetto all’impiego dell’AI e nella fabbrica delle fake news. Strumenti come Midjourney e altri software di intelligenza artificiale possono creare video, immagini e file audio facendo sembrare vero quel che in realtà è pura finzione. Far dire a un candidato qualcosa che non ha mai detto, mostrare una fotografia di una situazione mai verificatasi. «Io penso che il tema della disinformazione sia il più serio – ha commentato Bartoletti -. Queste tecnologie hanno subìto uno sbalzo enorme. Dico però anche che le leggi sui diritti umani e sulla protezione dei consumatori esistono. Non credo a un rischio esistenziale provocato dall’AI e non credo ai mercanti che spacciano questo rischio. Lo fanno per mitizzarla e metterla su un piedistallo». Uno dei personaggi che più martellano su questo aspetto è Elon Musk, che dopo aver cofondato la stessa OpenAI da anni diffonde messaggi sul rischio che l’umanità starebbe correndo se l’intelligenza artificiale diventasse più intelligente delle persone.
«Temo davvero questo allarmismo perché da tempo parlo dei rischi dell’AI sulla disinformazione, dei bias e della codificazione delle disuguaglianze». L’Unione Europea sembra aver preso sul serio la questione, al punto da aver stabilito alcuni criteri nell’AI Act. «Nell’AI act il nodo centrale è l’AI di alto rischio, con due criteri: si intende di alto rischio l’intelligenza artificiale applicata nei settori di aviazione e medicina, per esempio; e poi è di alto rischio l’AI che può avere un impatto sui diritti fondamentali, come quando si parla di diritti sul posto di lavoro».