L’esperto di cybersecurity ha partecipato a “How computer predict us” evento di lancio di Data Driven Innovation (DDI) organizzato in collaborazione con Maker Fair Rome e Innovacamera. L’intervista
I recenti accadimenti legati all’uso dei dati degli utenti americani di Facebook in relazione al caso di Cambridge Analytica, hanno fatto emergere in modo eclatante verso l’opinione pubblica, l’importanza della protezione dei dati e della loro diffusione non autorizzata.
Il caso della Cambridge Analytica rientra nel più ampio ambito dell’algorithm profiling, cioè la profilazione algoritmica effettuata in base ad enormi set di dati sulle persone fisiche per poterne modellizzare i comportamenti, utilizzandoli sia per modelli previsionali che permettano di anticipare e influenzare le scelte, oppure per labeling e categorizzazione nella classificazione, come se si trattasse di una segmentazione marketing-like, utilizzabile per gli scopi più disparati: finanziari, politici o commerciali o combinazioni di questi ambiti. Tutto questo comporta pericolosissime derive di controllo e manipolazione di massa che si configura come un rischio non più fantascientifico, ma concreto.
How computer predict us, l’evento a Roma
Si è parlato di tutto questo all’evento “How computer predict us” grazie alla lezione di Nimrod Kozlovski, esperto di cybersecurity, Big data analytics, internet law e new Media, cofondatore di Jerusalem Venture Partner , responsabile di Tech & Regulation presso HFN, professore all’Università di Tel-Aviv, Professore a contratto presso il programma Kellogg Global MBA e fellow dello Yale Information Society Project (ISP).
La giornata è stata ospitata presso il Dipartimento di ingegneria dell’Università degli studi di Roma Tre come evento di lancio dell’evento Data Driven Innovation-DDI (in programma dal 18 al 19 maggio) organizzato in collaborazione con Maker Fair Rome (The European Edition) di Innovacamera.
L’obiettivo del DDI sarà discutere tematiche riguardanti l’industria 4.0, startup, agrifood, fintech, blockchain, social media analytics, Predictive analysis, data journalism, robotica, machine learning, Internet of Things passando per l’etica dei dati e il tema della privacy, ma anche approfondire l’impatto dell’utilizzo dei dati alla luce del processo di digitalizzazione in tutti i settori della società che porta i cittadini ad essere consumatori ma anche produttori di dati. Che il controllo di questi dati possa sfuggire, con le conseguenze emerse dal Caso Cambridge Analytics, è stato invece l’oggetto del discorso di Kozlovski, per far capire fino a che punto la manipolazione possa ritorcersi contro la popolazione, quando il fulcro di tale profilazione algoritmica dei comportamenti delle persone venga gestita da organi centrali dello Stato, o da organismi commerciali che potrebbero influenzare scelte degli individui.
L’influenza della vita digitale su quella reale
“Il rapporto fra le nostre vite e l’ambito digitale dei computer che possono apparentemente predire i comportamenti degli individui, può influenzare la sicurezza degli individui stessi” ha affermato in apertura il Rettore di Roma Tre, Luca Pietromarchi. È importante osservare che in questa accezione la sicurezza non è solo riferita alla sottrazione non autorizzata dei dati digitali, ambito che afferisce alla sicurezza informatica, ma si intende proprio quella sfera della sicurezza di ogni individuo all’interno di un tessuto sociale.
Importante in questo senso l’esempio del National Social Trust Index che la Cina sta portando avanti partendo da un progetto di ricerca per arrivare a gestire fasce di popolazione assegnando uno score (punteggio n.d.r.) a ciascun individuo sula base di analisi automatizzate di dati, con la complicità delle big tech e dei social; uno score che poi condizionerà tutte le scelte di servizi alla persona in relazione a tutti gli ambiti della sua vita, quali ad esempio il lavoro ed i servizi medici.
Una schedatura di massa per prevenire i comportamenti aggressivi
Entro il 2020 questa sorta di social engineering di massa, o di schedatura di massa, dovrebbe portare ad un indice nazionale le cui conseguenze erano finora rilegate ai film di fantascienza per gli scenari più estremi di controllo e manipolazione del popolo. Anche il progetto FAST in America, votato alla raccolta di ogni elemento acquisibile mediante sensori (immagini, intercettazioni ambientali, misurazioni del calore corporeo, face recognition), all’interno di aree critiche (porti, aeroporti, luoghi pubblici affollati, etc) per prevenire comportamenti aggressivi e bloccarli prima che si verifichino, costituisce un esempio di algorithmic profiling per profilare ogni singola persona che in uno spazio aperto possa manifestare atteggiamenti valutabili come pericolosi e propedeutici alle ricerche di fedina penale, ambiti social ed elementi medici o finanziari che possano costituire una motivazione potenziale valutabile come premessa di un atto criminoso.
L’associazione al film “Minority Report” è stata esplicita da parte di Nimrod Kozlovski, come anche l’asserzione di diffidare esplicitamente da queste valutazioni automatizzate che sembra possano predire il comportamento umano. Diffidare in base a leciti dubbi: e se il profiling contenesse errori, fosse incompleto oppure fosse a sua volta alterato artificialmente per danneggiare dolosamente un individuo? Se il metodo stesso del profiling non fosse completo e non il suo esito non fosse veritiero? E se un individuo non volesse essere profilato non avrebbe il diritto di sapere che viene fatto oggetto di uno score da cui poi dipenderanno alcune scelte che lo riguardano?
Asserire con forza il “right to know”, la trasparenza sulla raccolta e gestione dei propri dati, le finalità, sono diritti che devono essere pretesi dai singoli e regolamentati a norma di legge. In particolare, si plaude al GDPR come inizio di ragionamento sui temi dell’algorithmic profiling e delle sue conseguenze anche estreme, ma il ragionamento dovrebbe continuare ed evolvere e completarsi.