Con l’idea di sistemare immediatamente le cosiddette “allucinazioni” che può restituire l’AI nelle sue risposte, Microsoft ha lavorato a un sistema che, in tempo reale, corregge quanto scritto se online trova informazioni più dettagliate rispetto al tema sul quale ha fornito un feedback. Così il colosso di Redmond si spinge sempre più avanti nel mare magnum dell’intelligenza artificiale.
Leggi anche: Perché Microsoft è in ritardo con il rilascio di Recall AI?
Le nuove frontiere dell’AI di Microsoft
Una cosa simile a quella lanciata da Microsoft era stata presentata da Google con l’annuncio della funzione “double check” di Gemini, grazie alla quale il chatbot mostra all’istante le fonti di informazione da cui ha prelevato le risposte se individua online pareri diversi su un determinato argomento. Dopo mesi di lavoro sull’intelligenza artificiale di Copilot e i dati di ricerca di Bing, gli ingegneri di Microsoft hanno messo a punto la cosiddetta “generazione aumentata del recupero”, in gergo “Rag“: un processo di ottimizzazione di un modello linguistico di grandi dimensioni che fa riferimento a una base di conoscenza autorevole al di fuori delle sue fonti di dati.
Quando sarà rilasciata la nuova funzione
«Le risposte, l’indice e i dati di classificazione di Bing aiutano Copilot a fornire risposte più accurate e pertinenti, insieme a citazioni utili a verificare le informazioni», ha scritto Sarah Bird, Chief Product Officer dell’area Responsible AI di Microsoft. La data di rilascio di questa nuova funzionalità non è stata ancora annunciata ma il colosso americano inizierà con il lancio delle nuove funzioni in primis nelle aziende. Su Azure OpenAI Service, con la funzione “On Your Data”, le imprese potranno integrare i propri dati nelle applicazioni di intelligenza artificiale, usando un’opzione che, in tempo reale, rileva il grado di “concretezza” delle risposte fornite da chatbot e correggendole all’occorrenza.