È stato pubblicato sulla Gazzetta Ufficiale lo scorso 25 settembre e entrerà in vigore nei prossimi giorni l’AI Act italiano, la nuova legge sull’intelligenza artificiale. Tante e diverse le previsioni che trovano posto nei suoi ventotto articoli. Ce ne sono un paio, diversissime tra loro, ma che suggeriscono una riflessione comune.

Qualche riflessione sull’AI Act
La prima è quella che stabilisce che i minori di quattordici anni non potranno accedere a “tecnologie di intelligenza artificiale” senza il consenso dei genitori e che i loro dati personali non potranno essere usati, attraverso queste tecnologie, senza lo stesso consenso. Qualcuno dirà bene così perché l’intelligenza artificiale per un bambino è pericolosa. Tuttavia l’intelligenza artificiale non è tutta uguale e, soprattutto, ormai è dappertutto.
È nei giocattoli, negli smartphone, nelle app di messaggistica tipo Whatsapp, nelle piattaforme di gioco online e in quelle di streaming di contenuti audiovisivi, è nei motori di ricerca, negli assistenti vocali intelligenti, nei sistemi di domotica, in dozzine di elettrodomestici. Difficile immaginare come una disposizione del genere possa trovare concreta applicazione perché il suo ambito sembra davvero troppo ampio. E non basta.
Leggi anche: AI Act | Quintarelli: «L’Europa sa solo regolare? Abbiamo più startup e più ritorno di fondi VC degli USA. Attenti alla narrazione taumaturgica»
Non è neppure facile, in molti contesti – per la verità nel maggior numero dei quali dovrebbe trovare applicazione – immaginare come il fornitore del servizio o il venditore del prodotto dovrebbe raccogliere il consenso dei genitori dell’infraquattordicenne prima di garantirgli accesso al servizio. E come farà a sapere che quel consenso arriva da due adulti che sono i genitori? Insomma il principio, forse è un po’ esteso, ma è chiaro.
Ma l’applicazione sembra incompatibile con la pervasività dell’intelligenza artificiale nelle nostre vite e in quella dei più piccoli. Niente giocattoli intelligenti, niente smartphone, niente motori di ricerche, niente Netflix e affini, niente Whatsapp e concorrenti, niente TikTok e social senza il consenso dei genitori per gli infraquattordicenni.
Siamo certi che si tratti di un precetto davvero attuabile? E saltando da una disposizione all’altra e dai più piccoli ai professionisti, una riflessione analoga è quella che obbliga questi ultimi a essere trasparenti con i loro clienti circa l’utilizzo di “sistemi di intelligenza artificiale”.
Anche questi sistemi, ormai, sono dappertutto in tutte o quasi le professioni intellettuali. Non c’è programma per la redazione di testi o il disegno di immagini o l’editing fotografico che non utilizzi intelligenza artificiale, non ci sono motori di ricerca senza, banche dati e sistemi di calcolo o diagnosi.
Possiamo davvero esser certi che sia possibile informare sempre, per davvero, i clienti che si sta facendo ricorso a questo o quel sistema di intelligenza artificiale. E ancora prima: possiamo esser certi che i professionisti dei settori più diversi, spesso lontani dalle cose delle tecnologie, siano in grado di rendersi conto di usare sistemi di intelligenza artificiale e siano in grado di spiegarne al cliente il funzionamento.
Leggi anche: AI Act | Bartoletti: «Il problema del Ddl è che mancano i fondi. Ha ragione Draghi sull’AI ad alto rischio»
Ancora una volta il principio è più o meno chiaro e l’obiettivo indiscutibilmente nobile. L’attuazione della norma, però, almeno incerta. La sensazione è che stiamo per renderci tutti conto e toccare tutti con mano quanto l’intelligenza artificiale abbia ormai pervaso tutte le professioni tanto da rendere – se mi si consente la battuta – forse più facile dire quando non la si usa che quando la si usa.
Ma staremo a vedere. Sarebbe un pasticcio se le nuove regole creassero dubbi e problemi applicativi senza risolvere per davvero i problemi – e sono tanti – sul tavolo perché si rischierebbe di dare a pensare che le regole sono inutili, creano fastidi e non incidono per davvero sulla nostra vita e su quella della società nella quale viviamo.
Naturalmente non è così ma la condizione è che le regole che scriviamo siano attuabili e impongano obblighi accessibili e tali da garantire che gli inadempienti possano essere identificati e sanzionati. Altrimenti è tutto inutile e, forse, persino dannoso.