Consentire alle autorità di accedere ai laboratori dove si stanno sviluppando software di intelligenza artificiale generativa, tecnologia utilizzata da milioni di persone in tutto il mondo e la cui sicurezza deve essere garantita. Sono queste le basi da cui parte la lettera aperta sottoscritta da oltre 100 ricercatori attivi nel settore dell’AI – da Stanford a Princeton – e inviata ai vertici delle società più impegnata su questa frontiera tech. I destinatari, come riassume il Washington Post sono realtà come OpenAI, Meta, Anthropic, Google e Midjourney.
Un’altra lettera aperta per chiedere trasparenza alle aziende di AI
Non è la prima volta che viene rivolto un appello alle aziende di AI. Nel 2023 Musk è stato tra i firmatari di una richiesta di moratoria, promossa dall’ONG Future of Life Institute, nella quale si richiedeva uno stop di sei mesi allo sviluppo dell’intelligenza artificiale generativa per dar tempo ai Paesi di approvare protocolli di sicurezza a livello intergovernativo. Nulla di tutto questo è avvenuto, anche se l’Europa nel frattempo ha lavorato sull’AI Act, un testo di riferimento.
Torniamo al documento sottoscritto. «Proponiamo – spiegano i firmatari – che le società di intelligenza artificiale apportino semplici modifiche alle politiche per proteggere la ricerca in buona fede sui loro modelli e promuovere la sicurezza, la protezione e l’affidabilità dei sistemi di intelligenza artificiale». Il documento cita i casi di violazione del copyright, così come quelli dei pregiudizi dell’AI in merito a determinati argomenti: occorre per questo garantire una maggiore trasparenza sui metodi di apprendimento degli algoritmi.
Leggi anche: OpenAI risponde alla causa di Elon Musk. Altman: «Elon voleva ci fondessimo con Tesla»
«Le aziende di intelligenza artificiale generativa – proseguono i ricercatori – dovrebbero evitare di ripetere gli errori delle piattaforme di social media, molte delle quali hanno di fatto vietato tipi di ricerca volti a ritenerle responsabili».