Alcuni giorni fa era circolata la notizia secondo cui OpenAI ha chiuso il team interno impegnato sul super allineamento. Si tratta di un tema centrale: riguarda la sicurezza che l’azienda deve garantire affinché l’intelligenza artificiale, in particolare la futura AGI (l’AI più intelligente di qualsiasi essere umano), non metta a rischio l’incolumità delle persone. Nelle scorse ore l’azienda di Sam Altman ha comunicato di aver aperto una Safety and Security Committee, che sarà guidata dallo stesso Ceo, Bret Taylor, Adam D’Angelo e Nicole Seligman.
Perché si parla del team di sicurezza di OpenAI?
La mossa arriva dopo che nelle scorse settimane è andata in scena quella che la CNN ha definito una rivolta da parte dei dipendenti. La vicenda va avanti dal 2023 ed è partita con quel clamoroso week end di metà novembre, durante il quale il consiglio di amministrazione di OpenAI aveva licenziato in tronco Sam Altman, motivando la scelta con la scarsa trasparenza da parte sua nei confronti del board. Alla fine, come sapete, con l’intervento del Ceo di Microsoft Satya Nadella Altman è tornato alla guida della società, dando il via a un giro di vite.
Come ha ricostruito The Verge, il cofounder Ilya Sutskever (allontanatosi dall’azienda) è stato tra coloro che avevano spinto per l’allontanamento di Altman da OpenAI. Di recente si è dimesso anche un altro nome di spicco: Jan Leike – codirettore del team sul super allineamento – ha lasciato per questioni di scarsa trasparenza rispetto ai rischi dell’AI e si è trasferito in Anthropic. Pure Gretchen Krueger, policy researcher, ha liberato la scrivania.
«Un primo compito del Comitato sarà quello di valutare e sviluppare ulteriormente i processi e le salvaguardie di OpenAI nei prossimi 90 giorni – si legge nel post -. Alla conclusione dei 90 giorni, condividerà le sue raccomandazioni con l’intero consiglio». La nuova unità interna va dunque a sostituire il team del super allineamento, i cui componenti sono stati smistati.