L’analisi bisettimanale, curata dalla startup innovativa Storyword, sui temi che hanno tenuto banco sulla stampa estera durante i 14 giorni appena trascorsi
Terry Doughty, un giudice federale nominato dall’ex presidente USA Donald Trump, ha emesso un’ingiunzione preliminare che vieta ad agenzie e funzionari dell’amministrazione di Joe Biden gli incontri e le comunicazioni con le aziende di social media previsti per prevenire o ridurre la pubblicazione di contenuti protetti dalla libertà di espressione garantita dal Primo Emendamento. Questa decisione segue una causa intentata dai procuratori generali repubblicani di Louisiana e Missouri, i quali sostengono che i funzionari governativi siano andati troppo oltre nei loro sforzi per incentivare tali aziende a intervenire su post che, a detta loro, avrebbero generato incertezza sui vaccini o influenzato le elezioni. L’ingiunzione, che pone un ostacolo alle attività di coordinamento tra governo e big tech, solleva questioni cruciali sul ruolo del governo nell’influenzare la moderazione sulle piattaforme online. Per Evelyn Douek, professore presso la Stanford Law School, l’applicazione di tale provvedimento è eccessivamente ampia nel momento in cui, non essendo chiari i confini, copre quasi tutti i tipi di contatto tra governo e piattaforme social. The Washington Post scrive che si tratta di una vittoria anche e soprattutto per i conservatori, che da tempo accusano l’amministrazione Biden di sopprimere la loro libertà di espressione. E una sconfitta anche e soprattutto per le big tech, che da tempo collaborano con il governo nei casi di emergenza come la pandemia di Covid19.
Nuovi chatbot, nuovi guai
Sembra che una nuova generazione di chatbot non sia vincolata alle restrizioni imposte alle aziende come Google e OpenAI per mitigare o prevenire i rischi legati all’uso di questi strumenti. Si tratta di chatbot sviluppati non dove si è verificato il boom dell’intelligenza artificiale, che hanno nuovamente aperto il dibattito sulla libertà di espressione. Tra i più noti GPT4All e FreedomGPT, creati con un investimento minimo da programmatori freelance che sono riusciti a replicare con successo i Large Language Model (LLM) esistenti. Come racconta il New York Times, solo in pochi hanno sviluppato i modelli partendo da zero. Diversi osservatori, già preoccupati dalla capacità dei chatbot che conosciamo di generare e diffondere disinformazione, hanno subito suonato l’allarme su come questi nuovi strumenti possano incrementare tale pericolo. I programmatori sembrano non avere le stesse preoccupazioni che hanno le grandi aziende in termini di reputazione, fiducia degli investitori e dialogo con le autorità, non dovendo fare i conti con loro quando lanciano un nuovo prodotto sul mercato. “La preoccupazione è legittima: questi chatbot possono dire qualsiasi cosa se lasciati alle loro decisioni”, ha detto Oren Etzioni, professore emerito presso l’Università di Washington e ex amministratore delegato dell’Allen Institute for A.I. “Non si censureranno da soli. Quindi ora la domanda diventa: qual è una soluzione più appropriata in una società che valorizza la libertà di espressione?”. Molti esperti ritengono che la responsabilità di moderare i chatbot non dovrebbe ricadere solo sulle grandi aziende o sui singoli sviluppatori, ma dovrebbe coinvolgere una serie di attori, tra cui legislatori e le comunità online. Ma ciò solleva una questione per certi versi più complessa: chi dovrebbe decidere cosa può e non può essere detto dai chatbot? È un dibattito complesso e in continua evoluzione che ancora non sembra sfociare in una soluzione.
Chiudere il web
Il web, per come lo conosciamo, si sta sgretolando. E solo in pochi ne sono consapevoli. Diversi siti e piattaforme social stanno alzando le barriere per evitare che altri operatori raccolgano i loro dati per addestrare gli strumenti di intelligenza artificiale. Da un lato Musk ha limitato l’accesso pubblico a Twitter in risposta al “saccheggio di dati” da parte di altre società, dall’altro numerose sotto-community di Reddit hanno deciso di diventare private in risposta all’iniziativa della piattaforma di far pagare agli sviluppatori l’accesso ai suoi dati. Senza dimenticare Wikipedia, la cui community è divisa su come gestire l’inevitabile afflusso di contributi generati dall’intelligenza artificiale. Il progresso tecnologico degli ultimi 30 anni poggia sugli ideali del web aperto. Ma l’emergere di strumenti come ChatGPT e il pericolo di una imminente recessione hanno spinto le compagnie a individuare nuove fonti di utile, mettendo a rischio il web inteso come risorsa pubblica. In altre parole, le piattaforme vogliono essere pagate quando i loro dati vengono utilizzati per la formazione degli strumenti di intelligenza artificiale.
Fuga dalla Cina
In Cina le community online bloccate dal governo hanno trovato una nuova casa su Reddit. Mentre il Partito Comunista inasprisce il controllo sulla libertà di espressione in rete, molti utenti sono rimasti attratti dal formato di Reddit basato su conversazioni, moderate dalla community stessa, più democratiche e per certi versi di nicchia. Fuori dal Great Firewall, questi gruppi sono liberi di esprimersi, diventando dunque un problema per l’establishment cinese. Tale migrazione è dovuta anche al fatto che Reddit è una piattaforma social più focalizzata su temi concreti e dove trovano quindi maggiore spazio gli utenti “ordinari” piuttosto che gli influencer. Contattata da Rest of World, un product manager della piattaforma ha detto: “In un momento in cui i social media sono dominati dagli algoritmi, mi piace che tutti possano far sentire la propria voce”. Inoltre, secondo Thomas Qitong Cao, un dottorando alla Stanford University, la pandemia di Covid-19 potrebbe aver contribuito all’aumento degli utenti cinesi su Reddit, poiché le crisi solitamente stimolano la richiesta di informazioni censurate. L’assenza di censura governativa da un lato ha permesso agli utenti di esprimersi liberamente, ma dall’altro ha dato spazio a opinioni più estreme e discorsi d’odio.
Comunicazione senza cultura
In passato, con il termine social-democrazia si intendeva un sistema politico finalizzato a mitigare gli aspetti più aspri del capitalismo. Oggi, con un leggero slittamento semantico, la social-democrazia è diventa la modalità con cui i cittadini sviluppano le proprie opinioni su temi politici, economici e culturali, con effetti concreti su consumi e preferenze elettorali. Ciò è dovuto al fatto che, scrive lavoce.info, l’uso dei social media da parte di un’ampia fetta della popolazione li ha trasformati in strumenti per plasmare l’opinione pubblica, in un Paese in cui l’84% della popolazione utilizza Internet (Digital Trend 2022). Internet che da sempre corre più veloce del legislatore, generando realtà e contenuti che spesso sfuggono alla regolamentazione. “Ma è opportuno portare gli strumenti della democrazia sul piano digitale o difenderla dalle ingerenze digitali? Il rischio è che si riproduca il loop tra azione e reazione, doping e antidoping invece di una piena integrazione nel patto sociale”. Tale contesto crea una società della comunicazione senza cultura, dove il protagonista è il rumore. Seppur con ritardi e difficoltà, l’Europa da un punto di vista legislativo sta provando a contrastare l’oligopolio delle superpotenze digitali e i rischi che derivano dall’uso degli strumenti di intelligenza artificiale: il Digital Markets Act e il Digital Services Act rappresentano un buon inizio. Ma anche rispetto all’etica, che ne dovrebbe tracciare i limiti, la tecnologia viaggia ad un’altra velocità.
Rassegna curata dalla redazione di Storyword.