Notizie attorno al mondo, con l’innovazione come denominatore comune. Sono quelle raccolte tutti i mercoledì sui profili social di Paola Pisano, tra questi LinkedIn e Instagram, nel tentativo di comprendere dove ci porterà la tecnologia e qual è il suo ruolo nella vita di istituzioni, aziende e semplici cittadini.
L’AI, un terreno davvero bipartisan?
Esperti di sicurezza dell’AI da tutto il mondo si sono riuniti a San Francisco questa settimana per l’incontro inaugurale del international Network of AI safety Institute. L’incontro ha l’obiettivo di creare un dibattito tra politici, leader di azienda e regolatori su come valutare e mitigare i rischi dell’AI . Dario Amodei, CEO di Anthropic, ha condiviso il suo approccio chiamato “gara verso l’alto” ossia gli investimenti per rendere i sistemi di AI più sicuri spesso aiutano a far progredire anche la tecnologia di base. Sviluppare l’AI e renderla sicura non devono essere visti come opposti. L’AI potrebbe portare al primo esperimento di regolamentazione bipartisan e sovranazionale? Durante l’evento molti Paesi, soprattutto in via di sviluppo hanno chiesto di non essere lasciati indietro. Poon, segretario aggiunto del Ministero dello Sviluppo Digitale e dell’Informazione di Singapore, ha suggerito un approccio pragmatico: sperimentare tecnologie promettenti su scala ridotta prima di implementarle su vasta scala. Questo incontro precede un vertice dei capi di stato e altri leader globali previsto per febbraio a Parigi.
Che succede ora a Google?
Il Dipartimento di Giustizia (DOJ) dovrebbe presentare in queste ore delle proposte per limitare il potere di Google. Il caso nasce da una causa intentata nel 2020 in cui il DOJ accusava Google di avere una posizione dominante illegale nelle ricerche online. Probabilmente il DOJ chiederà al giudice di ordinare a Google di vendere o separare il browser Chrome. Estrarre Chrome da Google richiederebbe di trovare un acquirente disposto a pagare fino a 20 miliardi di dollari. I problemi di antitrust di Google stanno consentendo ad OpenAI di diventare il più forte operatore sull’AI al mondo? I parallelismi con il caso Microsoft di circa 25 anni fa sono impressionanti. All’inizio del secolo, Microsoft dovette combattere la causa antitrust del governo che allentò la presa sul mercato internet, lasciando spazio a una piccola startup di ricerca chiamata Google. L’ascesa dell’AI segna l’inizio di un altro vasto cambiamento di piattaforma nel mondo tecnologico, rendendo questo un momento critico per Google, che si trova in guerra legale con il governo degli Stati Uniti.
Il Dragone in Silincon Valley
Alibaba, ByteDance e Meituan stanno espandendo i loro uffici in California cercando di reclutare personale da gruppi rivali statunitensi per recuperare terreno nella corsa alla monetizzazione dell’AI generativa. Alibaba punta a creare una startup indipendente per il suo team di AI californiano. Meituan, piattaforma di shopping cinese, ha costituito un team speciale per colmare il divario nel settore dell’AI. ByteDance lavora su progetti come l’integrazione di AI in TikTok e lo sviluppo del modello di linguaggio Doubao. Anche startup cinesi di AI più piccole hanno stabilito una presenza negli Stati Uniti, reclutando ingegneri con esperienza nei principali laboratori di ricerca e aziende della zona. Questa tecnologia potrebbe aumentare l’innovazione cinese creando nuove tensioni politiche tra Cina e America? Se le aziende cinesi riescono a portare via figure chiave dal panorama tecnologico statunitense, potrebbero accelerare lo sviluppo interno di tecnologie avanzate, colmando il divario con i leader americani. Nonostante il divieto degli Stati Uniti sull’esportazione di chip Nvidia di fascia alta, non esistono restrizioni per l’uso di chip avanzati nei data center statunitensi. Il che porterebbe un vantaggio alla Cina considerevole.
AI, pro e contro
Molti attori dell’AI si stanno impegnando nel creare sistemi di AI basati sul ragionamento. Un miglior ragionamento affronterebbe due importanti debolezze dell’AI attuale:
- la scarsa coerenza delle risposte
- l’incapacità di pianificare e raggiungere obiettivi a lungo termine.
La prima è importante per l’uso scientifico, mentre la seconda è essenziale per creare agenti autonomi. Entrambe potrebbero abilitare applicazioni significative. Il modello o1 di OpenAI introduce una nuova forma di scalabilità, combinando più dati, modelli più grandi e un tempo maggiore dedicato al “pensiero” computazionale. Aumentare il ragionamento dell’AI potrebbe creare dei problemi in futuro? Gli incentivi economici spingono le aziende verso lo sviluppo di un’intelligenza artificiale generale (AGI), rischiando di trascurare aspetti critici di sicurezza quali:
- un aumento delle capacità di inganno, una conseguenza del miglioramento nell’abilità di raggiungere obiettivi.
- la possibile reazione di armi biologiche.
Sebbene questi modelli “reasoning” rappresentino un grande passo avanti nel ragionamento matematico e scientifico, la pianificazione a lungo termine rimane una sfida.