Multiverse Computing, azienda impegnata a livello globale nella compressione di modelli di intelligenza artificiale, ha appena chiuso un maxi round da 215 milioni di dollari (185,57 milioni di euro). Il finanziamento di Serie B è stato guidato da Bullhound Capital con il supporto di investitori come HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba e Capital Riesgo de Euskadi – Grupo SPRI. In questo nuovo slancio verso la sua espansione, l’azienda ha ottenuto ampio supporto da una serie di investitori strategici internazionali, tra cui CDP Venture Capital, il cui investimento è volto a rafforzare lo sviluppo di Multiverse Computing in Italia. L’investimento accelererà l’adozione della tecnologia su larga scala, contribuendo ad affrontare gli enormi costi che impediscono la diffusione dei modelli linguistici di grandi dimensioni (LLM), rivoluzionando il mercato dell’inferenza AI, che vale 106,03 miliardi di dollari.
Multiverse e gli LLM
Gli LLM vengono tipicamente eseguiti su infrastrutture specializzate, basate su cloud, che fanno lievitare i costi dei data center. Le tecniche di compressione tradizionali – quantizzazione e pruning – mirano ad affrontare queste sfide, ma i modelli che ne derivano hanno prestazioni significativamente inferiori rispetto a quelle degli LLM originali. Con lo sviluppo di CompactifAI, Multiverse ha scoperto un nuovo approccio. I modelli CompactifAI sono versioni altamente compresse dei principali LLM open source, che mantengono però l’accuratezza originale, sono 4-12 volte più veloci e consentono una riduzione del 50%-80% dei costi di inferenza. Questi modelli compressi, economici ed efficienti dal punto di vista energetico, possono essere eseguiti nel cloud, in data center privati o – nel caso di LLM ultra-compressi – direttamente su dispositivi come PC, telefoni, automobili, droni e persino Raspberry PI.
«L’opinione prevalente è che la riduzione degli LLM abbia un costo. Multiverse sta cambiando le cose», ha dichiarato Enrique Lizaso Olmos, founder e CEO di Multiverse Computing. «Ciò che è iniziato come un’innovazione nella compressione dei modelli si è rapidamente rivelato trasformativo, sbloccando nuove efficienze nell’implementazione dell’AI e guadagnando una rapida adozione, grazie alla capacità di ridurre radicalmente i requisiti hardware per l’esecuzione dei modelli di intelligenza artificiale. Con l’ingresso di un pool unico di investitori globali esperti e strategici, e con Bullhound’s Capital come investitore principale, possiamo ora far progredire ulteriormente la nostra iper-focalizzata offerta di modelli di AI compressi, che offrono prestazioni eccezionali con un’infrastruttura minima»