«Non sappiamo come l’AI sta modificando il nostro cervello. Un nostro cliente ha detto che ci stanno facendo come un massaggio neurale di cui non conosciamo gli effetti». Luna Bianchi, co-founder di Immanence, startup che si occupa di valutare l’eticità di tecnologie quali appunto l’Intelligenza artificiale utilizzate dalle aziende, parte da un elemento che spesso non viene considerato. Se oggi discutiamo di salute mentale e di proibire i social network ai minorenni, è perché smartphone e piattaforme hanno avuto un impatto anche negativo su di noi. Ci si può dunque attendere che anche l’AI ci sottoporrà un costo da saldare in futuro?
Nei giorni successivi l’approvazione del Ddl AI da parte del Senato, ci siamo rivolti ad alcuni esperti per capire a che punto è l’Italia sulle norme in materia. «Questo Ddl – spiega Bianchi – ha ricalcato il regolamento europeo: si occupa di sanità, istruzione, finanza, PA. Il testo funziona per quanto riguarda gli ambiti e i princìpi guida. È chiaro che di mezzo ci sono i diritti umani. Faccio un esempio: non potranno essere prese decisioni mediche in maniera automatizzata senza la supervisione umana». La base c’è, ma ora che succede?

Il compromesso con l’AI
«Siamo di fronte a un primo documento, ora serviranno i decreti attuativi. In Italia non siamo m molto famosi per velocità». Dal momento che la startup cofondata da Bianchi si pone il tema dell’eticità delle tecnologie non come orpello, ma come elemento essenziale, le abbiamo chiesto quali sono i rischi che ad oggi corriamo rispetto all’AI.
«Non abbiamo informazioni rispetto agli impatti sul lungo periodo. Sappiamo già oggi che i giovani hanno minore capacità di scrivere e comprendere alcuni testi. L’AI generativa ha portato molti di noi a modificare il modo in cui lavoriamo e questo ci sta facendo perdere competenze». Nel bilancio finale secondo Bianchi ci sarà senz’altro qualcosa di guadagnato, come accaduto con tutte le tecnologie.

AI, una questione troppo emotiva?
«Oggi stiamo ad esempio perdendo la capacità di scrivere perché ci facciamo aiutare dalle formule standardizzate dell’AI. Tutto questo non sappiamo che effetto avrà sul nostro cervello». Un altro elemento di criticità secondo Bianchi è il seguente: «Nel Ddl manca, mentre è presente nell’AI Act europeo: bisogna testare di più queste tecnologie, capire che impatti sociali provocano. Il nostro approccio come Immancence è quello di adottare un processo scientifico, perché oggi l’AI è una questione soprattutto emotiva nelle aziende».
Con Immanence l’obiettivo è valutare il ritorno sociale dell’investimento anche in AI, come ci ha spiegato l’imprenditrice. «In questi anni abbiamo assistito a un cambiamento delle aziende: da ingenuamente entusiaste sono meno certe su cosa fare. Perché ci sono rischi reputazionali enormi». Ma il problema enorme è che tutte queste tecnologie che oggi utilizziamo in Europa sono made in USA. «Non abbiamo nessuna possibilità di gestire a livello europeo queste tecnologie. E sarebbe una grave urgenza. Non è proprio negoziabile: bisogna riportare qua strutture, infrastrutture e talenti».