Sono processi a due velocità. Da una parte startup, scaelup e Big Tech che da anni corrono per guadagnare fette di mercato dell’AI; dall’altra i regolatori e gli Stati, che in molti casi non fanno altro che inseguire l’Intelligenza artificiale, tentando di normarla quando è ancora in fase di sviluppo. «Quella approvata dal Senato nei giorni scorsi è una legge delega, dunque spetta al governo entro settembre 2026 fare una serie di cose. Se si parla di velocità questo ovviamente non fa che evidenziare quanto la parte legislativa sia in ritardo».
Ivana Bartoletti è esperta di privacy e di AI governance. L’abbiamo intervistata per raccogliere il parere di una persona competente alla luce dell’approvazione del Ddl AI (che qui abbiamo analizzato riportando anche il testo per intero della legge). Composto da diversi articoli, il decreto tocca vari aspetti, dagli investimenti in PMI innovative (mai citato il termine startup) al ruolo dell’AI in ambito sanitario e lavorativo. «L’AI deve essere regolata – ha precisato Bartoletti – ma il progetto del governo sembra vada più in là dell’AI Act europeo».

Ddl AI: cosa manca?
C’è dunque il rischio di conflitto con le norme europee? «Potrebbe uscirne un quadro più complesso. L’AI act è europeo e se si crea incertezza a livello nazionale è un problema». Ma secondo Bartoletti è un altro il nodo da osservare come punto critico. « Manca il tema finanziario: non ci sono soldi adeguati. Se si pensa a quanto fatto in Francia e Germania sono molto più avanti».

Nel Ddl AI si cita 1 miliardo di euro come ammontare di investimenti per l’AI. Una cifra che può sembrare notevole, ma che se paragonata a quel che accade altrove in Europa (per non parlare degli Stati Uniti) esce parecchio ridimensionata. Secondo Bartoletti, la problematica del Ddl AI è che «non è una legge conclusiva, ma una presa di tempo».

Chi supervisiona l’AI?
Proseguendo nell’analisi del testo di legge, l’esperta si è soffermata su un altro punto. Quando recita: “Al fine di garantire l’applicazione e l’attuazione della normativa nazionale e del l’Unione europea in materia di intelligenza artificiale, l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN) sono designate quali Autorità nazionali per l’intelligenza artificiale”. Perché può costituire un problema?

«Mi preoccupa il fatto che non ci sia un ente autonomo che riesca a fare oversight dell’AI. Avrei optato per assegnare questo ruolo al Garante della Privacy. Il tema centrale è creare fiducia e servirebbe un ente esterno». Siamo partiti in questa intervista dal rapporto non sempre semplice tra AI, innovazione e regole. Posto che non si può lasciare mano libera a società private su una materia così delicata per diritti, libertà e tutela della privacy, il rischio che da tempo alcuni esperti del settore ravvisano in Europa è l’eccesso di regolazione, specie nelle materie di frontiera.
«Mario Draghi ha avanzato un tema – ha concluso Bartoletti – ha detto che bisogna fermare le norme sull’AI ad alto rischio. E non ha tutti i torti vista la competizione che c’è con USA e Cina. Non c’è chiarezza su quali siano i rischi e intanto perdiamo terreno sull’innovazione».