Le aziende di IA hanno il dovere «etico, morale e legale di garantire la sicurezza», ha affermato la vicepresidente degli Stati Uniti d’America
Le big tech hanno il dovere «etico, morale e legale di garantire la sicurezza». Con queste parole Kamala Harris ha accolto gli amministratori delegati di Google, Microsoft e OpenAI, il creatore di ChatGPT, alla Casa Bianca. L’incontro era stato previsto con l’obiettivo di fare il punto sui rischi dei nuovi sistemi di intelligenza artificiale che, attualmente, sono all’opera senza seguire una regolamentazione legislativa specifica.
Leggi anche: Perché la Casa Bianca ha deciso di convocare le big tech che si occupano di IA?
Le paure delle istituzioni americane
Il presidente USA, Joe Biden, in una nota, ha dichiarato che aziende come quelle presenti al meeting hanno il dovere di assicurarsi che i loro prodotti siano sicuri prima di renderli disponibili al pubblico. «È imperativo mitigare i rischi attuali e potenziali che l’IA rappresenta per gli individui, la società e la sicurezza nazionale – si legge in una nota diffusa dalla Casa Bianca – Questi includono rischi per la sicurezza, la protezione, i diritti umani e civili, la privacy, il lavoro e i valori democratici». Un dovere, prima di tutto, «morale», come ribadisce la vicepresidente Harris, di proteggere la società dai potenziali pericoli derivanti da questa tecnologia. «Ogni azienda deve rispettare le leggi esistenti per proteggere il popolo americano – ha affermato la vicepresidente USA – L’intelligenza artificiale è una delle tecnologie più potenti di oggi, con il potenziale per migliorare la vita delle persone e affrontare alcune delle più grandi sfide della società. Allo stesso tempo, l’IA può aumentare drasticamente le minacce alla sicurezza e alla protezione, violare i diritti civili e la privacy».
Poche ore prima dell’incontro era stato lo stesso padrino dell’IA, Geoffrey Hinton, durante una conferenza al Massachusetts Institute of Technology ad ammettere che «le cose intelligenti possono superarci in astuzia». All’incontro erano presenti il CEO di Microsoft, Satya Nadella, il CEO di Alphabet e Google, Sundar Pichai e Sam Altman, CEO di OpenAI. E mentre le big tech sono al lavoro per mettere a punto sistemi di IA ancora più avanzati, le normative tardano ad arrivare e sono i governi dei singoli Paesi a decidere i limiti da imporre agli avanzati strumenti tech.