In un’epoca in cui l‘Intelligenza artificiale sta ridefinendo i confini di ciò che è possibile realizzare, emergono figure che si distinguono per la loro visione e il loro approccio innovativo. Tra queste molte sono nostre connazionali: oggi vi parliamo di Riccardo Di Molfetta, giovane imprenditore italiano che si appresta a lasciare il segno nell’ecosistema tech americano.
Una AI più umana di quella americana?
A 24 anni Riccardo Di Molfetta è il CEO e fondatore di Symbiotic, startup con sede a Boston che si propone di affrontare una delle sfide più cruciali del nostro tempo: l’allineamento dell’intelligenza artificiale con i valori umani. La sua storia è un interessante intreccio di umanesimo, arte, scienza e visione imprenditoriale.
Diplomato con il massimo dei voti al Liceo Artistico di Brera a Milano, Di Molfetta ha poi proseguito i suoi studi al King’s College di Londra, dove la sua eccellenza accademica gli è valsa la nomina alla prestigiosa Wellington Medal. Il suo percorso lo ha poi portato oltreoceano, dove ha frequentato un Master ad Harvard con un programma congiunto al MIT.
Ciò che rende la storia di Riccardo Di Molfetta e Symbiotic particolarmente interessanti è la loro visione dell’IA. Per Di Molfetta, l’Intelligenza artificiale non è semplicemente una tecnologia da sviluppare, ma una “specie aliena” da comprendere e con cui coesistere in armonia.
L’incontro tra Di Molfetta e Altman
Symbiotic nasce dalla convinzione che, quando l’intelligenza umana e quella artificiale si incontrano possono dar vita a qualcosa di straordinario. Un’idea che non è sfuggita a Sam Altman, CEO e co-fondatore di OpenAI. Infatti i due si sono incontrati durante un appuntamento pubblico per affrontare questi temi.
L’approccio di Symbiotic si distingue nel panorama dell’IA per il suo focus sull’integrazione delle scienze cognitive nello sviluppo di modelli di linguaggio più “umani”. L’obiettivo non è creare tecnologie fini a sé stesse ma strumenti che amplifichino il potenziale umano, mantenendo sempre al centro l’unicità dello spirito umano.
In questa intervista, Riccardo Di Molfetta ci guida attraverso il suo percorso, dalla formazione artistica in Italia alle aule di Harvard e MIT, fino alla fondazione di Symbiotic. Ci svela le sfide e le opportunità dell’ecosistema tecnologico americano, la sua visione sul futuro dell’IA e come la sua formazione multidisciplinare influenzi il suo approccio all’innovazione.
Cosa ti ha ispirato a fondare Symbiotic e come è nata l’idea?
L’ispirazione per Symbiotic non è arrivata come un lampo di genio, ma è stato un processo graduale. Mi ricordo che ero al mio primo semestre a Harvard quando ho provato ChatGPT per la prima volta. È stato un momento “wow”, mi sono reso conto che questa tecnologia era qualcosa di speciale. Quello che mi ha colpito di più era come il modello riuscisse a cogliere le sfumature del linguaggio umano. Non conoscevo molto AI a livello tecnico, ma sono sempre stato appassionato di filosofia della mente e del linguaggio e uno dei pilastri di questa disciplina è la “rivoluzione cognitiva”.
Puoi dirci qualcosa in più?
Questa teoria, nata negli anni ‘50 con il lavoro di Noam Chomsky e altri, sostiene che il linguaggio umano non può essere spiegato solo in termini “behavioristi”, cioè come semplici associazioni statistiche tra parole e frasi. Secondo questa teoria, ci sono strutture mentali innate e specifiche per il linguaggio, una sorta di “grammatica universale” hardwired nel nostro cervello. La cosa sorprendete dei modelli di linguaggio è che, pur basandosi su principi “behavioristi”, riescono ad ottenere una padronanza quasi semantica del linguaggio umano. Ho capito subito che gli LLMs sono uno strumento incredibile per studiare la natura umana e capire meglio chi siamo.
Ed è stato ciò che ti ha acceso la proverbiale lampadina?
Tutto questo mi ha spinto a seguire corsi sull’argomento e a parlare con esperti e studenti di Harvard e MIT. Quello che era iniziato come un interesse accademico si è trasformato nell’idea alla base di Symbiotic: creare un team di ricerca per studiare come le scienze cognitive possano rendere i modelli di linguaggio più “umani”, soprattutto nelle loro capacità sociali e mentali. L’intuizione iniziale era che dotare questi modelli di capacità, come teoria della mente, avrebbe aperto infinite possibilità di applicazione nel mondo reale. Nonostante nostri recenti sviluppi, la capacità di comprendere i processi mentali e le intenzioni umane rimane sicuramente un passo importante per lo sviluppo di modelli allineati ai nostri valori e obiettivi.
Qual è la missione principale di Symbiotic e come si differenzia dalle altre aziende nel campo dell’IA?
Symbiotic nasce dalla convinzione che quando l’intelligenza umana e quella artificiale si incontrano possono dar vita a qualcosa di straordinario. Questo fenomeno l’abbiamo già riscontrato con l’avvento del personal computer e credo che AI abbia il potenziale di completare questo percorso e portarci a un nuovo stadio dell’evoluzione umana. Questo si ricollega a un concetto che ritengo fondamentale: l’intelligenza artificiale va considerata a tutti gli effetti come una specie aliena che stiamo “ospitando” sulla Terra.
Puoi spiegarti meglio?
Credo che sia sbagliato pensare all’AI come a una versione digitale dell’intelligenza umana. Quest’ultima possiede sensibilità (immaginazione, visione, etc) ed esperienze (emotive, culturali, etc) che non si possono ridurre a un semplice “threshold” computazionale. Anche se credo che l’AI potrà, un giorno, simulare con precisione i meccanismi della nostra mente — un’idea che spesso fa paura — non potrà mai sostituire la profondità e l’unicità dello spirito umano. Per dare un esempio pratico, anche quando è la macchina a generare una nuova idea, è l’artista che decide quale idea generata risuona con la sua sensibilità estetica ed emotiva, e come integrarla in una visione creativa personale.
Cosa volete fare come startup?
Quello che vogliamo fare a Symbiotic è capire come creare modelli super-intelligenti atti ad amplificare tale sensibilità nel mondo. Credo che questo approccio ci distingua nel campo dell’AI — non siamo interessati a creare tecnologie fine a sé stesse, ma strumenti al servizio dell’uomo e del suo potenziale.
Quali sono state le principali sfide che hai affrontato nel processo di creazione della tua startup?
Creare una startup nell’ambito dell’AI è un po’ come navigare in mare aperto: si è costantemente sospesi tra l’eccitazione della scoperta e l’incertezza dell’ignoto. In questa industria non si tratta solo di affrontare le tipiche difficoltà legate all’avvio di un’impresa, come trovare finanziamenti, costruire il team giusto e sviluppare un prodotto di successo. Nel campo dell’AI, le potenzialità e i limiti della tecnologia sono in continua evoluzione e devi presto farne i conti. Infatti, nonostante i rapidi progressi degli ultimi due anni, nessuno sa ancora con esattezza quali siano i limiti dei modelli di linguaggio. La comunità si sta costantemente spingendo oltre le frontiere di ciò che è possibile, il che rende difficile pianificare e stabilire obiettivi a lungo termine per molte startup.
Parlaci della difficoltà nel trovare i finanziamenti…
L’interazione con i capitali di rischio americani è stata un’altra sfida complessa per noi. Da un lato, gli Stati Uniti rappresentano un hub ideale, con una concentrazione senza pari di capitali e opportunità. Dall’altro, navigare in questo ecosistema richiede una grande attenzione e cautela, soprattutto quando si tratta di scegliere i partner con cui lavorare a lungo termine. Nel nostro caso, abbiamo la fortuna di lavorare con investitori eccezionali, che hanno compreso a fondo la nostra visione e hanno supportato il nostro team fin dal primo momento. Tuttavia ci siamo anche imbattuti in situazioni meno positive. Alcuni VC, avendo fiutato il potenziale del nostro progetto e del nostro team, hanno tentato di trarne vantaggio in modi tutt’altro che piacevoli.
Quale strategia avete adottato per ottenere finanziamenti?
Abbiamo adottato una strategia “lean” fino al raggiungimento del nostro pre-seed round. Fortunatamente, i nostri costi iniziali erano minimi. Avevamo deciso fin dall’inizio di mantenere tutte le nostre operazioni in house, il che significava che non dovevamo affrontare le spese di affitto per uffici esterni, infrastrutture costose o consulenze di terze parti. Ogni membro del team è sempre stato dedicato alla missione e disposto a lavorare con risorse limitate.
Perché hai scelto di fondare Symbiotic negli Stati Uniti anziché in Italia?
La scelta di fondare Symbiotic negli Stati Uniti è stata il risultato di molteplici fattori, tra cui il fatto che mi trovavo negli USA per i miei studi quando iniziai questo progetto. Posso provare a riassumere questa scelta in tre punti principali. Il primo è l’accesso al talento nel campo dell’AI. Non è che l’Italia o l’Europa manchino di talento in questo settore – tutt’altro (da qui la decisione di Symbiotic di avere una seconda base operativa a Londra). Tuttavia, gli Stati Uniti offrono un pool di talenti più ampio e diversificato che sarà fondamentale quando dovremo assumere più persone. Purtroppo, è raro che talenti internazionali di alto livello scelgano l’Italia come base, mentre gli Stati Uniti rimangono una calamita sia per il talento Europeo che, naturalmente, quello Americano.
Il secondo punto?
Il secondo fattore è l’accesso al capitale. La propensione al rischio del VC americano è molto alta. Lo sviluppo di AI richiede investimenti significativi e sostenuti, spesso con orizzonti temporali lunghi e alta incertezza. Nel nostro caso, dovevamo dedicare risorse alla ricerca e allo sviluppo della tecnologia di base prima di poter anche solo pensare alla commercializzazione. In America, trovare investitori disposti a scommettere su visioni di lungo termine e tecnologie di frontiera è molto più fattibile che in altre regioni del mondo. C’è anche la questione della mentalità. Da italiano che ha vissuto negli Stati Uniti, sono rimasto colpito da come il contesto sociale influenzi il modo in cui si perseguono progetti innovativi.
Aiutaci a capire…
Negli USA c’è un senso diffuso e contagioso che tutto sia possibile, che un piccolo gruppo di individui determinati possa veramente cambiare il mondo. In Europa, invece, spesso noto una sorta di “eccessiva razionalizzazione” quando si tratta di imprenditoria innovativa. Ho trovato una tendenza a favorire percorsi professionali considerati più “normali”, spesso all’interno di aziende e istituzioni consolidate.
Quali vantaggi hai trovato nel lavorare nell’ecosistema tecnologico americano rispetto a quello italiano?
In aggiunta a quanto già detto, un vantaggio cruciale è stato l’ecosistema di Harvard e MIT. In particolare, i dipartimenti di scienze cognitive e il CSAIL (Computer Science and Artificial Intelligence Laboratory). A MIT sono presenti diverse scuole di pensiero per quanto riguarda il futuro di AI. Ti capita di parlare a uno scienziato cognitivo e ti dirà che gli LLMs sono una sorta di enciclopedie generative con nessuna capacità reale di “pensiero”. Dall’altro, ci sono persone al dipartimento di scienze informatiche che ti diranno che i modelli di linguaggio hanno processi avanzati di “reasoning” e che il loro potenziale di miglioramento è pressoché illimitato. In parte, credo che Symbiotic abbia imparato molto anche da questa dinamica e come rimanere il meno dogmatici possibili sia cruciale in AI: cerchiamo di combinare lo scetticismo delle scienze cognitive con il pragmatismo delle scienze informatiche ed ingegneristiche. Ancora più in generale, vedo Harvard e il MIT come le due anime di Symbiotic.
In che senso?
Harvard rappresenta la base più ideativa e umanistica del nostro progetto. È lì che la visione ha preso forma. Il curriculum umanistico di ampio respiro di Harvard incoraggia a pensare in grande, a considerare le implicazioni etiche e sociali di AGI. Il MIT, d’altra parte, rappresenta il tramite attraverso il quale queste idee possono essere tradotte in realtà. A MIT c’è un focus sulla “fatica” dell’esecuzione, una consapevolezza di come lo sviluppo di tecnologie di frontiera significhi spesso lavorare contro limiti fisici e ingegneristici concreti. È un ambiente che ti costringe a confrontarti con la materialità del processo tecnologico. Per me, l’immersione in queste due realtà è stata fondamentale, mi ha insegnato a navigare tra il regno astratto della visione e quello concreto della loro realizzazione materiale.
Pensi che ci siano opportunità per le startup tecnologiche in Italia?
Ci sono sicuramente opportunità per le startup in Italia, soprattutto nel campo di AI, anche se meno in “hard tech” che nel contesto americano in visione delle problematiche strutturali già citate. AI è una tecnologia olistica che può avere molte utilità pratiche in diverse industrie e applicazioni. Ad oggi questo spazio è ancora largamente inesplorato in Italia, nonostante ci siano già alcune realtà che sono riuscite a creare valore con AI. Vedo soprattutto spazio per l’integrazione di AI in aziende come modello B2B più che consumer (B2C), in quanto sarà più difficile per aziende come OpenAI e Google creare soluzioni altamente personalizzabili al contesto italiano. Questo è uno spazio che può essere esplorato molto da nuove realtà.
Cosa può essere migliorato?
Si può migliorare su molti fronti: dalle strategie di investimento dei capitali di rischio ai programmi di acceleratori sul suolo nazionale e dal punto di vista culturale. C’è molto potenziale ma credo che si debba fare di più per ridurre il gap con l’ecosistema innovativo statunitense che ad oggi non è marginale.
Come è stato per te, a livello personale, lasciare l’Italia per trasferirti negli Stati Uniti?
Vivo fuori dall’Italia da quando ho 18 anni quando mi sono trasferito in UK per la laurea triennale. Non è stato particolarmente difficile continuare questo percorso negli Stati Uniti. Sicuramente la lontananza dall’Italia, familiari, e amici è sempre complesso — ma non mi ritengo una persona troppo nostalgica in generale. Un giorno, mi piacerebbe comunque tornare in Italia.
Quali sono stati i momenti più difficili e quelli più gratificanti di questa transizione?
Il periodo sicuramente più complesso è stato l’ultimo semestre di studi. Da una parte, dovevo concludere i miei corsi e laurearmi. Dall’altra, avevamo appena chiuso il nostro round di finanziamento per la startup e c’era un sacco di lavoro da fare. Facevo lo studente e il founder a tempo pieno, contemporaneamente. È stato un periodo intenso. Verso la fine del semestre, mi trovavo a lavorare su due grossi progetti di ricerca, inclusa la mia tesi, avevo lezioni di Arabo intensivo ogni giorno (come parte del mio programma), mentre in parallelo affrontavamo un momento critico con Symbiotic. Credo di aver dormito in media 3-4 ore a notte in quei due mesi finali e c’erano momenti in cui ho considerato di chiedere un “leave of absence” da Harvard. Per quanto riguarda il momento più gratificante, è stato quando abbiamo finalizzato il nostro round di finanziamento pre-seed.
Come ha influenzato la tua formazione umanistica il tuo approccio all’Intelligenza artificiale e alla fondazione di Symbiotic?
La mia formazione è multi-disciplinare, ho studiato con un relativo livello di profondità e analisi più di una disciplina accademica — ma con un focus su storia, politica economica, filosofia, scienze cognitive e computazionali. Sono un convinto sostenitore di un’educazione in stile “rinascimentale”, ovvero un percorso formativo che attinge allo studio di diverse aree di conoscenza e metodologie. Attraverso lo studio di diversi campi mi sono accorto che esistono strutture e sistemi logici in ogni disciplina, che una volta messi insieme si sovrappongono e si completano, quindi non tanto un attenzione sul contenuto in sé (anche se ovviamente la conoscenza nozionistica è utile), ma ponendo l’accento più sull’attivazione critica e l’integrazione di queste strutture di pensiero nei propri modelli cognitivi. Se ci pensi la maggior parte delle discipline scientifiche è un tentativo dell’uomo di costruire sistemi logico-analitici adeguati per comprendere fenomeni complessi e variegati nel mondo. Approcciare un’analisi del cervello umano o di un processo storico-economico significa, in un certo senso, assimilare per osmosi i processi cognitivi necessari per interpretare tali fenomeni. Credo che quando si afferma che studiare diverse materie permette di “aprire la mente”, non si tratti solo di una frase vuota, ma di un concetto che trova riscontro anche a livello neurale. L’idea è che l’esposizione a diverse discipline attivi sinapsi cerebrali che rimarrebbero in gran parte dormienti se ci si concentrasse solo su un singolo campo di studi. Questa visione è supportata anche dalla nostra comprensione della mente umana come sistema modulare, ovvero costituito da diversi “moduli” o aree specializzate che interagiscono per dar vita ai processi cognitivi complessi.
Quindi una formazione multi-disciplinare è un vantaggio?
Tutto questo per dire che credo che la mia formazione multi-disciplinare (e in questo senso di stampo umanistico) mi torni utile in AI non tanto per una specifica propensione delle discipline umanistiche verso l’AI, quanto per le abilità cognitive che ho sviluppato nel corso del mio percorso di apprendimento. Poi c’è anche da sottolineare che AI è una tecnologia sui generis in quanto, per la prima volta nella storia, ci troviamo di fronte all’opportunità di creare una vera e propria mente artificiale. Un progetto che, inevitabilmente, si interseca con questioni etiche, sociali, culturali e perfino spirituali. Anche in questo, una conoscenza del sentire umano tramite campi come la filosofia e la storia sono indispensabili.
Come vedi l’evoluzione dell’Intelligenza artificiale nei prossimi cinque anni?
Bisogna partire dal presupposto che nessuno sa con certezza. Chiunque sostenga il contrario non si sta basando su evidenze scientifiche certe. La realtà è che ogni innovazione tecnologica nel campo dell’AI si basa su un nuovo metodo o approccio che, se scalato con risorse e talenti adeguati, può portare a un nuovo livello qualitativo nell’output. Il problema è che è estremamente difficile prevedere il potenziale e i limiti di ogni nuovo approccio finché non lo si sperimenta in maniera pratica, cioè ingegneristica. In passato, abbiamo assistito a questo fenomeno con i convolutional neural networks. Ora, stiamo vivendo qualcosa di simile con i transformers, l’architettura alla base dei moderni modelli di linguaggio come GPT-4.
Aiutaci a comprendere con qualche esempio…
Un’analogia che trovo calzante è quella di paragonare ogni nuovo approccio nell’AI a un nuovo edificio. Ogni edificio si basa su fondamenta matematiche e scientifiche specifiche, che ne determinano la stabilità e le potenzialità. Quando iniziamo a costruire su queste fondamenta, possiamo continuare ad aggiungere piani e funzionalità, ma non sappiamo con certezza quanto queste fondamenta reggeranno nel lungo termine. Non sappiamo se stiamo costruendo una modesta casa a due piani o un grattacielo. La storia dell’AI è costellata di momenti in cui un edificio, ovvero un approccio, è crollato, rivelando i limiti delle sue fondamenta. Ogni volta che questo accade, siamo costretti a ripartire da zero, a gettare nuove basi concettuali, ma con la conoscenza e gli strumenti lasciati dai tentativi precedenti. Gli LLMs sono modelli a dir poco straordinari e sono convinto che ci sia ancora spazio di miglioramento con l’integrazione di dati più ricchi e variegati, come dati multimodali provenienti da video, e più potere computazionale. La domanda è se un sistema autoregressivo input-output come quello degli modelli di linguaggio sia abbastanza per sviluppare un AGI (Artificial General Intelligence) o meno. La mia sensazione, e quello su cui stiamo lavorando a livello aziendale, è che la risposta è probabilmente no e che ci sarà bisogno di nuove invenzioni. Ciò non toglie che gli LLMs siano uno strumento cruciale in questo percorso verso le superintelligenze. In particolare, questi modelli possiedono già una rappresentazione ricca e sfaccettata del mondo che sarà probabilmente fondamentale per supportare futuri componenti di un’AGI o un ASI.
Come vedi il prossimo lustro?
Quello che è abbastanza sicuro è che in cinque anni sapremo se gli LLMs bastano per lo sviluppo di modelli più avanzati. Ma anche se alla fine dovesse risultare che gli LLMs sono incompleti, sono convinto che questi modelli saranno in grado di coprire la maggior parte delle attività cognitive umane. E questo avrà un impatto economico enorme, soprattutto con lo sviluppo di agents, cioè di entità digitali vere e proprie che possono svolgere compiti e attività per noi, andando ben oltre le attuali interfacce chatbot. I recenti sviluppi in computer vision promettono anche uno sviluppo senza precedenti nella robotica, che credo avrà un suo momentum nel giro di 3-4 anni.
Quali sono i tuoi obiettivi a lungo termine per Symbiotic?
Il nostro prossimo obiettivo è completare un round di finanziamento seed, che ci fornirà le risorse necessarie per accelerare il nostro lavoro di ricerca e sviluppo. Nel lungo termine, vogliamo creare un valore duraturo per i nostri clienti, attraverso lo sviluppo di sistemi di intelligenza artificiale che abbracciano il sentire umano. In particolare, ci piacerebbe poter contribuire alla missione storica dell’umanità nella creazione di sistemi superintelligenti, soprattutto nella creazione di modelli in grado di agire in sintonia con l’inventiva umana.
Quali valori ritieni essenziali per lo sviluppo etico dell’IA e se questi sono già presenti in Symbiotic?
Lo sviluppo di AI in una maniera sicura e responsabile è una questione molto complessa e anche di natura tecnica. In generale, si può suddividere in due dimensioni. La prima riguarda il cosiddetto “deployment” dell’intelligenza artificiale — cioè come individui e istituzioni decidono di applicare e utilizzare modelli avanzati. La seconda riguarda l’allineamento “interno” ai modelli stessi, cioè non più come si decide di farne uso ma come li sviluppi dal punto di vista ingegneristico in modo tale che siano allineati con le nostre intenzioni. Ciascuna ha le sue complessità e potremmo parlarne per ore. Se devo concentrarmi su un paio di punti, io credo che, da una parte, sia essenziale che si lavori su quello che viene chiamato “red teaming”, cioè nella creazione di gruppi indipendenti dalle aziende che abbiano accesso ai modelli di frontiera dei laboratori di AGI come OpenAI e DeepMind. È importante che questi team siano tecnici e capaci di comprendere quando e se un modello all’avanguardia sta dimostrando segni o capacità emergenti pericolose. Una di queste capacità rischiose è sicuramente il “disallineamento ingannevole” (deceptive misalignment), ovvero quando un modello sviluppa la capacità di ingannare gli esseri umani, fingendo di essere allineato con i nostri obiettivi mentre in realtà persegue un’agenda nascosta. Questo è un rischio particolarmente insidioso, perché un modello con queste caratteristiche potrebbe essere molto difficile da individuare e potrebbe causare danni significativi prima di essere scoperto. Dall’altro canto, c’è anche il problema che nel modo in cui stiamo sviluppando questi modelli è difficile rilevare capacità “non-allineate” in tempo. Questo è dovuto al fatto che i modelli di linguaggio sono delle “scatole nere” e non abbiamo una comprensione esaustiva dei loro processi computazionali interni, il che rende tutto più complicato. Per questo motivo, è importante intensificare gli sforzi nel campo dell’interpretabilità meccanicistica, il ramo di AI volto a comprendere e spiegare il funzionamento interno di questi modelli. Inoltre, è cruciale lavorare sullo sviluppo di nuove tecniche per l’allineamento di ipotetici modelli super-intelligenti nel futuro, che rimane una questione aperta e irrisolta — un punto di attenzione per noi a Symbiotic. Certamente, credo che sia fondamentale considerare un rallentamento dello sviluppo dei modelli di frontiera nel momento in cui ci si rende conto che stanno raggiungendo capacità superiori a quelle umane, se non si è ancora progettata una soluzione al problema dell’allineamento. Questa pausa richiederebbe una collaborazione a livello internazionale, con implicazioni politiche di grande portata.
Ci sono stati docenti che hanno influenzato la tua carriera?
Per quanto riguarda i docenti, ho avuto la fortuna di assistere alle lezioni di alcuni dei migliori professori al mondo nel loro campo. Se dovessi identificare quelli che hanno avuto l’impatto più significativo, direi che sono stati coloro che mi hanno fornito intuizioni cruciali per comprendere la loro materia in senso ampio. Tra questi, il mio relatore di tesi durante la laurea triennale nel comprendere la filosofia morale, Bill Clark a Harvard per quanto riguarda la politica economica, e Joshua Tenenbaum a MIT, un pioniere nello studio computazionale della mente — credo che il suo corso sia necessario per qualsiasi persona intenta a comprendere i principi chiavi delle scienze cognitive.
E momenti che ti hanno segnato?
Per quanto riguarda momenti specifici che hanno segnato il mio percorso, ce ne sono un paio. Il primo è stato quando ho ricevuto una lettera dal Duca di Wellington a King’s College, in cui mi congratulava per i miei risultati accademici. Questo è stato senza dubbio un fattore cruciale per la mia ammissione ad Harvard e per l’ottenimento di una borsa di studio. Ma se devo essere onesto, il momento più trasformativo è stato il mio “gap year” ad Amman, in Giordania, nel 2022.
Raccontaci cosa accadde nel tuo 2022…
Avevo alle spalle il periodo della pandemia e sentivo il bisogno di prendermi una pausa dall’università. Quel periodo in Medio Oriente è stato contemplativo e introspettivo e mi ha permesso di visitare luoghi pieni di valore intellettuale e spirituale, come Gerusalemme. Questo era un periodo in cui ero immerso in un intenso studio personale delle religioni monoteiste, in particolare del Cristianesimo e dell’Islam, e della psicologia, soprattutto le opere di Jung. Guardando indietro, credo che senza quel periodo di sperimentazione, il mio percorso successivo sarebbe stato molto diverso. In un certo senso, quell’anno è stato il momento in cui ho gettato le basi, inconsciamente, per il mio lavoro futuro sull’intelligenza artificiale. Mi ha fatto capire che per creare tecnologie veramente trasformative, bisogna partire da una profonda comprensione, quasi spirituale, dell’umano.