ChatGPT-4 ha superato un test di Turing, dimostrando alcune capacità che un gruppo di ricercatori ha contraddistinto come indistinguibili rispetto all’azione umana. I risultati emergono da uno studio condotto da un gruppo di ricercatori guidato da Matthew Jackson, professore di Economia alla Stanford School of Humanities and Sciences negli Stati Uniti, che ha condotto un’analisi approfondita delle caratteristiche e del comportamento dell’intelligenza artificiale ChatGPT, applicando metodologie proprie della psicologia e dell’economia comportamentale.
Leggi anche: Faggin: «L’AI non avrà mai coscienza. ChatGPT? A differenza nostra non comprende ciò che dice»
La ricerca su ChatGPT-4
In un articolo pubblicato sulla rivista Pnas (Proceedings of the National Academy of Sciences) sono stati rivelati alcuni dettagli della ricerca che ha preso in esame le versioni 3 e 4 di ChatGPT attraverso test di personalità e invitando i chatbot a elaborare strategie in vari giochi comportamentali che simulano decisioni economiche e morali nel mondo reale, tra cui la gestione di investimenti finanziari. Le risposte dei bot sono state messe a confronto con quelle di oltre 100.000 individui, provenienti da 50 differenti Paesi. Il risultato finale è stato il superamento del test di Turing avanzato per intelligenze artificiali che valuta la capacità di una macchina di emulare comportamenti umani.
Il test di Turing
I tratti di personalità dei bot sono stati analizzati dal gruppo di ricerca tramite il test “OCEAN Big-5“, che misura cinque dimensioni chiave del comportamento umano. La versione 4 di ChatGPT ha mostrato livelli normali in tutti e cinque i tratti ma, al contempo, una scarsa “affabilità”, nel senso che, nonostante abbia superato il test, il bot è stato giudicato dai ricercatori scarsamente capace di stabilire relazioni amichevoli. Per quanto riguarda i giochi, le mosse della versione 4 avevano più probabilità di essere “umane” (eguali a quelle delle controparti umane) che non. La versione 3, invece, non ha superato il test. La ricerca ha rilevato che le scelte dei chatbot nei giochi sono spesso ottimizzate per il massimo beneficio sia per il bot che per la sua controparte umana. Le strategie erano coerenti con l’altruismo, l’equità, l’empatia e la reciprocità, portando i ricercatori a suggerire che i chatbot potrebbero funzionare bene come agenti del servizio clienti e mediatori di conflitti.