Alphabet, la società madre di Google, ha modificato i suoi principi sull’intelligenza artificiale, eliminando un passaggio che impegnava l’azienda a evitare l’uso della tecnologia in applicazioni potenzialmente dannose, come le armi. Big G ha, infatti, eliminato i riferimenti in cui prometteva di non perseguire “tecnologie che causano o possono causare danni”, “armi o altre tecnologie il cui scopo principale o la cui implementazione causa o facilita direttamente lesioni alle persone”, “tecnologie che raccolgono o utilizzano informazioni per la sorveglianza violando norme accettate a livello internazionale” e “tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani”.
Leggi anche: Milano dice addio ai parcheggi gratuiti? Ecco il piano del Comune per eliminare le strisce bianche
Che cosa cambia linee guida dell’AI Google?
La sezione in questione, precedentemente intitolata “Applicazioni AI che non perseguiremo”, includeva un riferimento esplicito a “tecnologie che causano o sono suscettibili di causare danni complessivi”, tra cui le armi. Questa frase, stando a quanto riportato da Bloomberg, che ha esaminato alcuni screenshot, non è più presente nella pagina ufficiale dei principi di Google sull’AI. In un post sul blog aziendale pubblicato ieri, James Manyika, vicepresidente senior di Google, e Demis Hassabis, responsabile di Google DeepMind, hanno affermato: «Crediamo che le democrazie debbano guidare lo sviluppo dell’intelligenza artificiale, seguendo valori fondamentali come la libertà, l’uguaglianza e il rispetto dei diritti umani. E crediamo che aziende, governi e organizzazioni che condividono questi valori dovrebbero collaborare per creare un’AI che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale». Margaret Mitchell, ex co-responsabile del team di etica dell’AI di Google e attuale scienziata capo per l’etica dell’AI presso la startup Hugging Face, ha dichiarato: «Eliminare questa clausola significa cancellare il lavoro svolto da molte persone nel campo dell’etica dell’AI e dell’attivismo all’interno di Google. Ancora più preoccupante è il fatto che ora Google potrebbe lavorare direttamente su tecnologie che possono uccidere».
In che direzione si va?
Il cambio di direzione riflette la crescente tendenza delle grandi aziende tecnologiche a ridimensionare – o, in certi casi, ad abbandonare – pubblicamente gli impegni precedentemente assunti. Il colosso tech aveva introdotto i suoi principi sull’AI nel 2018, in risposta alle proteste interne contro il contratto con il Pentagono per il “Progetto Maven”, che prevedeva l’uso degli algoritmi di visione artificiale di Google per analizzare i filmati dei droni militari. In quel caso, migliaia di lavoratori firmarono una lettera aperta al CEO, affermando che Google non avrebbe dovuto essere coinvolta in progetti legati alla guerra. La pressione interna portò non solo alla pubblicazione dei principi sull’AI, ma anche alla decisione di non rinnovare il contratto con il Pentagono.
Ora, la rimozione di questa clausola proprio relativa ai “danni” dai principi solleva ora interrogativi su quale direzione prenderà la società di Mountain View nello sviluppo e nell’applicazione dell’AI, soprattutto in ambiti legati alla sicurezza e alla difesa.