«C’è un post su X di Ilya Sutskever, di OpenAI, che mi ha fatto gelare il sangue. In sostanza dice che chi valuta l’intelligenza al di sopra di ogni qualità umana dovrebbe aspettarsi tempi bui. La mia principale preoccupazione non è la super disinformazione, ma la super persuasione». Matteo Flora, Professore a contratto in Corporate Reputation & Business Storytelling, in CyberSecurity ed in Data Driven Strategies, ci ha aiutato a inquadrare la complessità dello scenario attuale. Il 2024, lo diciamo da quando è iniziato, è forse l’anno con più elezioni nella storia. Ma è anche l’anno in cui Oltreoceano si parla di AI election o deepfake election. Partiti come meme, i contenuti generati dall’AI circolano ormai da tempo nel dibattito pubblico, inquinandolo. Facciamo qualche esempio.
L’AI è fatta per dire la verità?
Nelle scorse settimane, mentre erano in corso le primarie in New Hampshire, migliaia di elettori hanno ricevuto una telefonata con una voce registrata: era il presidente USA Joe Biden, che invitava a non recarsi alle urne e di concentrarsi piuttosto sul voto di novembre. Bene: la voce non era quella di Biden, ma una molto convincente voce sintetica realizzata grazie all’AI. Rimanendo sempre negli USA il partito repubblicano ha fatto circolare questo video nel giorno in cui Biden ha annunciato l’intenzione di correre di nuovo per la Casa Bianca (era il 2023): tutte le immagini che compaiono in sequenza – si notano disordini, guerre e clima da guerra civile – sono state generate dall’intelligenza artificiale. Nel frattempo in India c’è chi resuscita politici deceduti grazie alla tecnologia.
Sono anni che parliamo di fake news. Siamo dunque giunti alla fase successiva delle deepfake election? «Sicuramente sì – risponde Flora –. E lo dico perché abbiamo già visto cosa è successo. Le finte telefonate di Biden, i finti filmati di disinformazione, i deepfake su notizie di cronaca». Circostanza preoccupante e che mette a rischio una corretta informazione dell’opinione pubblica nelle democrazie. Ma secondo l’esperto è un risultato che non dovrebbe sorprendere. «L’AI generativa nasce per creare grandissimi volumi di contenuti tra di loro consimili, che sembrino generati da esseri umani. È l’uso per cui è nata: fare propaganda. È il Santo Graal della creazione dei contenuti».
Leggi anche: L’AI vista da un artista. «Esistono applicazioni ragionevoli, Sam Altman è parte del problema»
Come sono cambiati i social
Nei giorni scorsi Facebook ha spento le 20 candeline. Sembrano ormai lontanissimi i tempi in cui i social si presentavano all’opinione pubblica come semplice luogo di incontro, addirittura piazza digitale su cui organizzare ribellioni contro i regimi (l’esempio è quello delle Primavere Arabe). Ci sono voluti anni prima di comprendere quali siano, in realtà, le narrative e i contenuti che più funzionano sui social. «Le narrative più semplici in assoluto sono quelle a più alto valore emozionale – aggiunge Flora -. L’odio tira moltissimo a livello di psicologia cognitiva. Non penso che la destra sia più attrezzata o in gamba della sinistra nel fare propaganda, ma giocoforza ha argomentazioni più semplici».
La sensazione, tutt’altro che rassicurante, è che non sia più possibile rimettere il genio nella lampada. «Abbiamo capito che non esistono sistemi abbastanza sicuri per identificare con ragionevole certezza i contenuti creati dall’AI. La soluzione non è minimamente il water-marking. Credo che la situazione non si sia ancora stabilizzata per poter vedere una possibile soluzione». Il punto è che ciascun attore ha il proprio grado di responsabilità di questa situazione.
«La realtà è un oggetto socialmente negoziato, ma non da adesso – aggiunge Flora -. Oggi non si hanno disponibilità informative terze per comprendere un fenomeno specifico. C’è stata una perdita totale di autorevolezza delle stampa, che, devo dire, si è cercata da sola con i click-bait. Tutto ciò fa in modo che le narrative si polarizzino talmente tanto che non esiste più un’opinione terza rispetto alla realtà». In altre parole, questo conduce a uno scenario nel quale sembra addirittura legittimo parlare di alternative truth senza generare troppo sconcerto.
Gli altri problemi dell’AI
Un altro caso che ha fatto molto discutere ha coinvolto Taylor Swift, forse la pop star più famosa al mondo. Nelle scorse settimane sono circolate su X e sui social sue immagine di nudo generate dall’AI. Ci sono volute ore prima che le piattaforme riuscissero a rimuoverle. «Sono uno dei fondatori di Permesso Negato, associazione non-profit che si impegna a combattere la pornografia non consensuale. Faccio notare che negli USA non esiste una legge che penalizzi immagini artificiali come quelle di Taylor Swift, mentre in Europa sì».
Commetteremmo dunque un clamoroso errore nel pensare che tecnologie come l’AI siano nate puntando all’accuratezza informativa o alla verità. «I LLM non nascono per dire la verità, anzi. Nascono per creare testi verosimili. Il termine che dobbiamo iniziare a conoscere è allineamento e super allineamento: cosa succede quando si arriva alla super intelligenza? Che questi algoritmi sono più in gamba di ciascuno di noi». Come argomenta Flora il problema a suo avviso non sono le fake news, ma la capacità sempre più convincente di modellare le opinioni. «I sistemi persuasivi sugli umani sono incredibilmente semplici. Dati in mano all’AI mi fanno paura».
Da anni Elon Musk è uno dei personaggi pubblici più preoccupati rispetto allo scenario di un’AI che soggioga gli umani. Per questo ha deciso di fondare xAI. Ha ragione ad aver paura o è solo posizionamento? «Tutte le persone in una certa posizione che hanno visto di cosa è in grado la tecnologia sono spaventate o potenzialmente spaventate – conclude Flora -. L’idea di fondo è capire cosa ci rende umani, altrimenti ci perderemmo molte cose».