La California è al lavoro su un disegno di legge per prevenire i disastri dell’intelligenza artificiale ma, sinora, ha incontrato una forte opposizione da parte di molti nella Silicon Valley e ha deciso di affidarsi alla startup Anthropic, impegnata sull’AI sino dalla sua fondazione, per rivedere la proposta di legge. Scopriamo tutti i dettagli.
Leggi anche: Intelligenza artificiale, Sahara AI ha raccolto 43 milioni di dollari in un round
Il disegno di legge sull’AI
Il disegno di legge è già stato approvato dalla Commissione della California, ma con alcune modifiche essenziali, come ha riferito a TechCrunch il senatore Wiener: «Abbiamo accettato una serie di emendamenti molto ragionevoli e credo che abbiamo affrontato le preoccupazioni principali espresse da Anthropic e da molti altri nel settore. Questi emendamenti si basano su cambiamenti significativi alla proposta di legge SB 1047 che soddisfano le esigenze della comunità open source». La SB 1047 vuole cercare di impedire che i grandi sistemi di intelligenza artificiale causino problemi di sicurezza informatica. Tuttavia, la legge ora concede al governo della California di avere meno potere sulla responsabilità in merito allo sviluppo degli stessi modelli di intelligenza artificiale.
Che cosa cambia con i suggerimenti di Anthropic?
In particolare, il disegno di legge non consente più al procuratore generale della California di citare in giudizio le aziende di intelligenza artificiale per pratiche di sicurezza negligenti prima che si verifichi un evento su larga scala, come ha suggerito Anthropic secondo quanto si apprende da TechCrunch. Invece, il procuratore generale della California può richiedere un provvedimento ingiuntivo e obbligare un’azienda a cessare una determinata attività che ritiene pericolosa. E ancora, può citare in giudizio uno sviluppatore di intelligenza artificiale se il suo modello causa, effettivamente, incidenti informatici. Nella nuova proposta di legge viene anche ampliato il consiglio che disciplina le linee guida sulla sicurezza. Se prima il Board of Frontier Models contava 5 componenti, con la proposta di legge questi saranno 9. Infine, la proposta d legge può considerare responsabile di eventuali danni informatici soltanto chi spende più di 10 milioni di dollari per ottimizzare un modello di AI, altrimenti non viene considerato uno sviluppatore. La responsabilità ricadrà, comunque, sullo sviluppatore di quello stesso modello.