Torna alla home
Torna alla home
.....
Open menu
Home
 
Search
 
MY
Articoli Salvati
 
CANALI
Startup
Economy
Smart Money
Life
Food Makers
Lifestyle
UpSkill
Impact
Valore Responsabile
 
RUBRICHE
Cover Story
That's Round
Breaking News
Firme dal futuro
Viaggio in Italia
Italiani dell'altro mondo
Unstoppable Women
Bandi, istruzioni per l'uso
Imprenditori sostenibili
Dossier
Agenda
Bandi
 
AREE
Chi siamo
Advisory Board
Lavora con noi
Area Investor
Live TV
SIOS
desc blur blur
TECH

Lo stop a ChatGPT, parla il Garante della Privacy: “Davvero dobbiamo scegliere tra progresso, diritti e libertà?”

 ⏱ Leggi in 3 min
  ⏱3 min read
TECH
Share article
Set prefered

Lo stop a ChatGPT, parla il Garante della Privacy: “Davvero dobbiamo scegliere tra progresso, diritti e libertà?”

Share article
Set prefered

Privacy settimanale | Guido Scorza, avvocato e componente del Collegio del Garante per la Protezione dei dati personali, nel suo guest post per StartupItalia spiega i motivi che hanno portato al blocco di ChatGPT rispondendo alle critiche piovute da internet

Privacy settimanale | Guido Scorza, avvocato e componente del Collegio del Garante per la Protezione dei dati personali, nel suo guest post per StartupItalia spiega i motivi che hanno portato al blocco di ChatGPT rispondendo alle critiche piovute da internet

author avatar
Guido Scorza
1 apr 2023

La decisione del Garante per la protezione dei dati personali di avviare un’istruttoria nei confronti di OpenAI, la società che gestisce, tra gli altri servizi, ChatGPT e di ordinarle uno stop temporaneo dei trattamenti dei dati personali e la conseguente decisione della società americana di rendere temporaneamente inaccessibile il servizio dall’Italia hanno acceso un vivace dibattito sui social. Da una parte ci sono coloro che, per la verità meno numerosi, plaudono all’iniziativa e dall’altra quelli che la criticano, talvolta anche senza mezze misure, accusando il Garante di condannare l’Italia a rinunciare a uno dei più gettonati e, forse, utili ritrovati del progresso tecnologico e, così facendo, in qualche modo, a restare fuori dalle rotte del futuro.

La necessaria premessa è che, come probabilmente noto, sono di parte, sedendo nel Collegio del Garante che ha assunto la decisione in questione. Tuttavia, la questione mi pare troppo importante per sottrarmi alla discussione. Anche perché, a mio avviso, la questione sul tavolo non riguarda il provvedimento adottato nei confronti di OpenAI, né la decisione di quest’ultima di rendere inaccessibile il servizio dall’Italia. La vera questione a mio avviso, è un’altra: si ritiene davvero che innovazioni tecnologiche destinate a produrre straordinari vantaggi e opportunità per la collettività debbano disporre di uno speciale salvacondotto regolamentare e, quindi, essere implicitamente autorizzate a agire anche in violazione delle regole vigenti in ragione dei benefici che possono e potranno produrre? Ma, soprattutto: davvero si tratta di scegliere se imboccare la strada dell’innovazione o quella del rispetto dei diritti, delle libertà e della dignità delle persone ed è impossibile pensare di orientare l’innovazione in una direzione più rispettosa delle persone? Per provare a rispondere a questa domanda vale la pena tornare sulle contestazioni alla base dell’ordine indirizzato a OpenAI e dell’istruttoria avviata nei confronti della società.

Ce ne sono tre, probabilmente, più rilevanti delle altre.

La prima riguarda l’addestramento degli algoritmi realizzato pescando a strascico da Internet miliardi di dati e informazioni, molti dei quali personali. Nessuno di noi, naturalmente, ne è mai stato informato né ci è mai stata offerta la possibilità di scegliere se partecipare a questo processo e vedere i nostri dati riversati nelle macchine della società o se restarne estranei. Certo i dati utilizzati sono stati, salvo prova contraria, raccolti da “fonti” pubbliche ma, come è noto, questo non basta a rendere quei dati utilizzabili da chiunque e per qualunque scopo anche perché, banalmente, un dato che fino al 2021 era online, magari inesatto o magari in violazione della nostra privacy e poi è stato corretto o rimosso, oggi potrebbe essere ancora nei server di OpenAI o essere comunque stato utilizzato per addestrare i suoi algoritmi a rispondere alle domande di centinaia di milioni di persone. Ora credo valga la pena tener presente che le regole in materia di ricerca scientifica – finalità almeno altrettanto nobile e importante per il progresso – non consentono a nessuno di fare ricerca senza neppure informare le persone alle quali si riferiscono i dati e, salvo eccezioni, senza ottenere un consenso.

«L’addestramento degli algoritmi è realizzato pescando a strascico da Internet miliardi di dati e informazioni, molti dei quali personali»

La seconda riguarda la circostanza che ChatGPT se le si chiede di formulare un testo relativo a una persona e dispone – o ritiene di disporre – delle informazioni per farlo, spesso e volentieri associa a quella persona fatti e circostanze che non appartengono alla sua vita e, così facendo, distorce la sua identità personale e il modo in cui chi interroga il servizio percepisce e percepirà quella persona. In termini di disciplina sulla privacy, insomma, tratta dati personali inesatti. E a poco serve rilevare che ChatGPT non si presenta come un saggio ma più modestamente come un compilatore automatico di testi perché è fuor di dubbio che milioni di utenti in tutto il mondo lo stiano utilizzando, dal primo giorno, alla ricerca di risposte nelle quali, nella più parte dei casi credono. E poco conta anche che, per la verità, la società nei suoi termini d’uso che, in pochi abbiamo letto, metta sull’avviso gli utenti della possibile inesattezza dei contenuti prodotti. Quando si associa a una persona una circostanza non veritiera e magari negativa e la si propone a milioni di persone, il più delle volte, il danno è fatto quali che siano le avvertenze che, da qualche parte, si sono date. La manipolazione della realtà e dell’identità di una persona produce lesioni, talvolta anche gravi, della dignità e della libertà.

L’ultima tra le principali contestazioni sul tavolo, riguarda i bambini. Certo non succede solo su ChatGPT ma benché il servizio si presenti riservato a un pubblico di ultratredicenni, poi chiunque dichiari di avere un’età maggiore può usarlo e usandolo consegnare al servizio quantità più o meno rilevanti di dati personali. Non è difficile immaginare quanti dubbi, curiosità, paure abbia un ragazzino e quanto possa aprirsi con un sistema conversazionale del quale fa fatica a capire il funzionamento.

«In termini di disciplina sulla privacy ChatGPT tratta dati personali inesatti. E la manipolazione della realtà e dell’identità di una persona produce lesioni della dignità e della libertà»

Ecco davanti a queste contestazioni credo che la domanda che bisogna porsi sia: davvero in nome del progresso tecnologico e degli straordinari vantaggi che ci promette dovremmo lasciar corere, girarci dall’altra parte, lasciar fare al mercato, rinunciare a difendere i diritti, le libertà e la dignità delle persone persino quando le persone non li percepiscono come in pericolo? Oppure non possiamo e, forse, per quanto impopolare possa apparire, non ha più senso provare a orientare il progresso in una direzione che rispetti di più la libertà di autoderminazione del singolo, i suoi diritti e le sue libertà personali, la dignità della persona? Sono davvero istanze inconciliabili? Davvero difendere questi diritti e queste libertà significa scendere o, addirittura, far scendere un’intera nazione dal treno del futuro?

Ecco io credo che, a prescindere da questa vicenda specifica, queste domande meritino una risposta e che questo dibattito sia prezioso per governare il futuro nell’interesse di tutti e senza nessun preconcetto.

chatgpt

Come sempre se volete saperne di più su quello che accaduto in settimana in giro per il mondo su dati, privacy e dintorni potete leggere qui le notizie quotidiane di PrivacyDaily o iscrivervi alla newsletter di #cosedagarante qui.

Tags: #CHATGPT #FIRMEDALFUTURO
Iscriviti alla newsletter di SI

Info, networking, best practice sull'innovazione digitale in Italia.

Home
Il magazine dell'innovazione e delle startup italiane
facebook
twitter
instagram
linkedin

 

LifeValore ResponsabileSmart MoneyThe food makers

 

TechEconomyEducationLifestyleStartupImpact

StartupItalia

Advisory BoardArea InvestorSIOSShoppingAgendaBandiLavora con noi
loading autori
StartupItalia! è una testata registrata presso il tribunale di Roma n. 167/2012
StartupItalia! SRL, Cagliari, Via Sassari 3, 09123, PIVA 13733231008, REA - CA - 352408, Capitale Sociale: € 28.924,60, PEC startupitalia (at) legalmail.it
Privacy 
|
Cookies
Torna alla home
CANALI
Startup
Economy
Smart Money
Life
Food makers
Lifestyle
UpSkill
Impact
Valore Responsabile
RUBRICHE
Cover Story
That's Round
Breaking News
Firme dal futuro
Viaggio in Italia
Italiani dell'altro mondo
Unstoppable Women
Bandi, istruzioni per l'uso
Imprenditori sostenibili
Dossier
Agenda
Bandi
AREE
Chi siamo
Advisory Board
Lavora con noi
Area Investor
LIVE TV
SIOS