Privacy settimanale | Guido Scorza, avvocato e componente del Collegio del Garante per la Protezione dei dati personali, nel suo guest post per StartupItalia spiega i motivi che hanno portato al blocco di ChatGPT rispondendo alle critiche piovute da internet
La decisione del Garante per la protezione dei dati personali di avviare un’istruttoria nei confronti di OpenAI, la società che gestisce, tra gli altri servizi, ChatGPT e di ordinarle uno stop temporaneo dei trattamenti dei dati personali e la conseguente decisione della società americana di rendere temporaneamente inaccessibile il servizio dall’Italia hanno acceso un vivace dibattito sui social. Da una parte ci sono coloro che, per la verità meno numerosi, plaudono all’iniziativa e dall’altra quelli che la criticano, talvolta anche senza mezze misure, accusando il Garante di condannare l’Italia a rinunciare a uno dei più gettonati e, forse, utili ritrovati del progresso tecnologico e, così facendo, in qualche modo, a restare fuori dalle rotte del futuro.
La necessaria premessa è che, come probabilmente noto, sono di parte, sedendo nel Collegio del Garante che ha assunto la decisione in questione. Tuttavia, la questione mi pare troppo importante per sottrarmi alla discussione. Anche perché, a mio avviso, la questione sul tavolo non riguarda il provvedimento adottato nei confronti di OpenAI, né la decisione di quest’ultima di rendere inaccessibile il servizio dall’Italia. La vera questione a mio avviso, è un’altra: si ritiene davvero che innovazioni tecnologiche destinate a produrre straordinari vantaggi e opportunità per la collettività debbano disporre di uno speciale salvacondotto regolamentare e, quindi, essere implicitamente autorizzate a agire anche in violazione delle regole vigenti in ragione dei benefici che possono e potranno produrre? Ma, soprattutto: davvero si tratta di scegliere se imboccare la strada dell’innovazione o quella del rispetto dei diritti, delle libertà e della dignità delle persone ed è impossibile pensare di orientare l’innovazione in una direzione più rispettosa delle persone? Per provare a rispondere a questa domanda vale la pena tornare sulle contestazioni alla base dell’ordine indirizzato a OpenAI e dell’istruttoria avviata nei confronti della società.
Ce ne sono tre, probabilmente, più rilevanti delle altre.
La prima riguarda l’addestramento degli algoritmi realizzato pescando a strascico da Internet miliardi di dati e informazioni, molti dei quali personali. Nessuno di noi, naturalmente, ne è mai stato informato né ci è mai stata offerta la possibilità di scegliere se partecipare a questo processo e vedere i nostri dati riversati nelle macchine della società o se restarne estranei. Certo i dati utilizzati sono stati, salvo prova contraria, raccolti da “fonti” pubbliche ma, come è noto, questo non basta a rendere quei dati utilizzabili da chiunque e per qualunque scopo anche perché, banalmente, un dato che fino al 2021 era online, magari inesatto o magari in violazione della nostra privacy e poi è stato corretto o rimosso, oggi potrebbe essere ancora nei server di OpenAI o essere comunque stato utilizzato per addestrare i suoi algoritmi a rispondere alle domande di centinaia di milioni di persone. Ora credo valga la pena tener presente che le regole in materia di ricerca scientifica – finalità almeno altrettanto nobile e importante per il progresso – non consentono a nessuno di fare ricerca senza neppure informare le persone alle quali si riferiscono i dati e, salvo eccezioni, senza ottenere un consenso.
«L’addestramento degli algoritmi è realizzato pescando a strascico da Internet miliardi di dati e informazioni, molti dei quali personali»
La seconda riguarda la circostanza che ChatGPT se le si chiede di formulare un testo relativo a una persona e dispone – o ritiene di disporre – delle informazioni per farlo, spesso e volentieri associa a quella persona fatti e circostanze che non appartengono alla sua vita e, così facendo, distorce la sua identità personale e il modo in cui chi interroga il servizio percepisce e percepirà quella persona. In termini di disciplina sulla privacy, insomma, tratta dati personali inesatti. E a poco serve rilevare che ChatGPT non si presenta come un saggio ma più modestamente come un compilatore automatico di testi perché è fuor di dubbio che milioni di utenti in tutto il mondo lo stiano utilizzando, dal primo giorno, alla ricerca di risposte nelle quali, nella più parte dei casi credono. E poco conta anche che, per la verità, la società nei suoi termini d’uso che, in pochi abbiamo letto, metta sull’avviso gli utenti della possibile inesattezza dei contenuti prodotti. Quando si associa a una persona una circostanza non veritiera e magari negativa e la si propone a milioni di persone, il più delle volte, il danno è fatto quali che siano le avvertenze che, da qualche parte, si sono date. La manipolazione della realtà e dell’identità di una persona produce lesioni, talvolta anche gravi, della dignità e della libertà.
L’ultima tra le principali contestazioni sul tavolo, riguarda i bambini. Certo non succede solo su ChatGPT ma benché il servizio si presenti riservato a un pubblico di ultratredicenni, poi chiunque dichiari di avere un’età maggiore può usarlo e usandolo consegnare al servizio quantità più o meno rilevanti di dati personali. Non è difficile immaginare quanti dubbi, curiosità, paure abbia un ragazzino e quanto possa aprirsi con un sistema conversazionale del quale fa fatica a capire il funzionamento.
«In termini di disciplina sulla privacy ChatGPT tratta dati personali inesatti. E la manipolazione della realtà e dell’identità di una persona produce lesioni della dignità e della libertà»
Ecco davanti a queste contestazioni credo che la domanda che bisogna porsi sia: davvero in nome del progresso tecnologico e degli straordinari vantaggi che ci promette dovremmo lasciar corere, girarci dall’altra parte, lasciar fare al mercato, rinunciare a difendere i diritti, le libertà e la dignità delle persone persino quando le persone non li percepiscono come in pericolo? Oppure non possiamo e, forse, per quanto impopolare possa apparire, non ha più senso provare a orientare il progresso in una direzione che rispetti di più la libertà di autoderminazione del singolo, i suoi diritti e le sue libertà personali, la dignità della persona? Sono davvero istanze inconciliabili? Davvero difendere questi diritti e queste libertà significa scendere o, addirittura, far scendere un’intera nazione dal treno del futuro?
Ecco io credo che, a prescindere da questa vicenda specifica, queste domande meritino una risposta e che questo dibattito sia prezioso per governare il futuro nell’interesse di tutti e senza nessun preconcetto.
Come sempre se volete saperne di più su quello che accaduto in settimana in giro per il mondo su dati, privacy e dintorni potete leggere qui le notizie quotidiane di PrivacyDaily o iscrivervi alla newsletter di #cosedagarante qui.