«Un mercato è definito da regole. Senza regole vince il più forte. Il Ddl sull’AI appena approvato ha parti dovute perché rispecchiano l’AI Act; altre eccessive come quelle relative alle pene per i deepfake; e di altre ancora non ne capisco l’utilità. Ad esempio non capisco bene perché prevedere due agenzie governative (Agenzia per la Cybersicurezza Nazionale e Agenzia per l’Italia Digitale, ndr) a capo della governance: può generare alcuni problemi». Stefano Quintarelli, imprenditore seriale con un passato da parlamentare italiano e presidente dell’Associazione Copernicani, è oggi attivo nel settore del Venture Capital. Lo abbiamo intervistato per commentare la legge delega rispetto all’AI, per capire che ruolo hanno le regole nella partita globale dell’Intelligenza artificiale.
Nella lettura di Stefano Quintarelli le regole non sono affatto un ostacolo per lo sviluppo dell’innovazione. Anzi, dalla sua esperienza rappresentano un valore perché garantiscono una competizione corretta tra aziende. Ma chi fa le regole non può ignorare una realtà che corre. Ogni due anni, per legge, sarà infatti aggiornata la strategia nazionale sull’Intelligenza artificiale. «Avrei preferito che la strategia rimanesse a un livello più alto, con piani triennali di implementazione, aggiornati però di anno in anno. Così da aggiustare la mira. È la stessa cosa che fa l’Agid per la PA».

Troppo duri con l’Europa che regola?
Dato che il Ddl AI contiene molti elementi dell’AI Act europeo, un testo senz’altro ambizioso schernito però da più parti, anche da rappresentanti del mondo dell’innovazione, abbiamo chiesto a Quintarelli se condivide o meno la lettura di un Vecchio continente che sa solo regolare, mentre USA e Cina corrono. «No, l’Europa non regola e basta. E poi un mercato è fatto di regole. In loro assenza vale la legge del più forte. Ora sto seguendo una exit di una società che abbiamo in portoflio con un grosso operatore americano. E quest’ultimo mi ha detto che è un vantaggio che ci siano regolamentazioni: dà certezza al mercato».
Quello che evidenzia amaramente Stefano Quintarelli è il fatto che l’Europa diventa terreno comodo per gli acquisti da parte di colossi a stelle e strisce. «Per sostenere la tesi della over-regulation si dice che non ci sono grandi aziende tecnologiche europee. Ma è questa veramente la causa? I dati mostrano che ci sono più startup in Europa che negli USA. Il ritorno sull’investimento per i fondi VC è più alto in Europa». Cos’è mancato allora di così importante da farci perdere competitività?

Il problema dell’Europa con l’innovazione
«Il problema è che non riusciamo a farle crescere queste aziende. Siamo bravi a fondarle e infatti gli americani le comprano. L’Europa investe all’anno 72 miliardi, gli americano 1300. E il problema non è la regolamentazione dell’AI. Ma la mancanza di un mercato europeo dei capitali e l’atteggiamento penalizzante che abbiamo verso il capitale di rischio». Che finisce con l’indebolire le nostre tecnologie.
A Stefano Quintarelli abbiamo poi chiesto un commento sulle parole dell’ex premier Mario Draghi, autore di un rapporto molto citato nell’ultimo anno e che in diversi punti parla di startup e innovazione come motori di crescita del Vecchio continente. Draghi ha chiesto di fermare le norme sull’AI ad alto rischio. «Sono d’accordo quando dice che la carenza di investimenti in tecnologia ci abbia tenuto indietro rispetto ad altri. Ma contesto sull’opportunità di limitare le regole sull’AI ad alto rischio».

A questo punto Quintarelli ha fatto un esempio che viene dall’America: «Il parlamento della California ha approvato all’unanimità una regolamentazione su cui il governatore ha messo il veto. Adesso ne hanno approvato un’altra e vedremo cosa farà il governatore. L’amministrazione USA voleva vietare qualsiasi regolamentazione per 10 anni, salvo poi a poche settimane approvare una legge che dice che i sistemi devono essere “imparziali”, non woke». L’esperto ha sottolineato la difficoltà della situazione. «Adesso per i produttori di LLM è un rischio se i loro sistemi dicono che i vaccini sono sicuri. Non mi pare condizionante per la competitività europea limitare il riconoscimento facciale, evitare di far decidere a una macchina cause giudiziarie, evitare discriminazioni nella assunzione del personale».
I rischi dell’AI
Partiti dall’AI e dal Ddl approvato, siamo tornati alla tecnologia di cui si parla di più negli ultimi anni. Dirompente per certi aspetti, rende i processi più efficienti, fa risparmiare tempo, ma secondo Quintarelli è anche al centro di una narrazione eccessiva.
«Mi allarma una narrazione taumaturgica dell’Intelligenza artificiale. Ci sono persone che ritengono sia in grado di fare cose che invece non è in grado di fare. La mia paura è che i decisori, sull’onda dell’entusiasmo, facciano scelte sbagliate». Ad esempio? «Decidere ad esempio se una persona è sana di mente o meno usando l’AI, una cosa alla Lombroso; oppure decidere se una persona può avere una maggiore recidiva criminale. L’idea taumaturgica dell’AI genera sciocchezze».