Aipoly, ideato da Alberto Rizzoli (22) e Marita Cheng (26), è uno dei 5 progetti selezionati per essere presentati alla cerimonia di chiusura della Singularity University. Un privilegio per pochi e che dimostra la validità di questa app per ciechi e ipovedenti.
Tra le tecnologie che migliorano il futuro spiccano, in questa prima parte del 2015, quelle dedicate alle persone non vedenti. L’ultima è un’app, Aipoly, sviluppata all’interno della Singularity University, da un giovane 22enne italiano, Alberto Rizzoli (figlio di Angelo e nipote di Andrea, fondatore della nota Casa Editrice) e Marita Cheng, 26 anni, talento della robotica e “giovane australiana dell’anno” nel 2012.
Ogni anno, questo centro d’eccellenza della Silicon Valley, che si trova all’interno di una ex-base della Nasa e i cui vicini sono Google e la Stanford University, seleziona 80 progetti meritevoli da far crescere in 10 settimane. Da giugno ad agosto. Il progetto di Alberto e Marita, dopo aver pitchato con altri 27 team nella giornata di martedì, è entrato a far parte della rosa d’eccellenza dell’edizione 2015. Aipoly, infatti, è uno dei 5 progetti selezionati per essere presentati alla cerimonia di chiusura dell’anno. Un privilegio per pochi e che dimostra la validità (e l’importanza) dell’idea.
Che cosa fa Aipoly
È un assistente personale intelligente in grado di far comprendere alle persone cieche o ipovedenti che cosa c’è intorno a loro. Forme, dimensioni, colori. Tutto tramite semplici foto e un successivo feedback audio. Ogni immagine scattata viene caricata sul server dell’applicazione per essere taggata e studiata. Il risultato di quest’analisi viene riconsegnata all’utente che può leggerla e ascoltarla (a voce alta o tramite un paio di auricolari).
Aipoly, dunque, permette a persone con disabilità visive di ricostruire immagini molto più dettagliate e fedeli alla realtà. Tutto grazie ad una tecnologia che si sta ritagliando un ruolo di primo piano negli Stati Uniti, la “Machine Vision” (o Computer Vision). Si tratta di un’innovazione nata per approfondire la conoscenza di tutte quelle reti di neuroni che il nostro cervello utilizza per distinguere i vari componenti presenti all’interno di un’immagine.
Un algoritmo più forte della memoria umana
Utilizzando un sistema simile a queste reti neurali, l’app riconosce un numero di oggetti, creature e scene che presto oltrepasserà l’insieme di quello che un essere umano può ricordare durante la propria vita: «Questo processo di calcolo informatico richiedeva computer da milioni di euro solo 10 anni fa» ricorda Alberto «Oggi, invece può essere compiuto direttamente dallo smartphone e utilizzando semplicemente la rete. Tutto per pochi centesimi».
Il potenziale mercato per l’applicazione è costituito dai 285 milioni di persone con disabilità visive nel mondo. E si stima che, entro i prossimi 5 anni, due terzi di loro diventeranno utilizzatori di smartphone. Ciechi e ipovedenti che, in tempi brevi, potranno sapere quello che stanno indossando i propri figli, riconoscere cartelli stradali, oggetti fuori portata, oppure ottenere la libertà di muoversi senza ulteriore assistenza umana.
Ma non solo. L’algoritmo è anche in grado di capire quali tipo di relazioni vi siano tra gli elementi della foto. «Abbiamo pensato che creando un algoritmo in grado di disegnare le immagini di ciò che lo circonda» spiega Alberto «L’utente avrebbe a disposizione una guida innovativa ed efficace. Ogni utente riconoscerebbe se ci sono ostacoli per strada (statue, siepi e recinti, alberi o altri impedimenti sul cammino) diventando più indipendente. In questo modo non dovrebbe per forza contare su altre persone».
La praticità di Aipoly
La presentazione al Nasa Ames Research Park di Mountain View è stata l’occasione per mostrare quali sono state le sperimentazioni pratiche riguardo a quest’applicazione: «Recentemente siamo andati a fare un picnic con il “Silicon Valley Council For The Blind” e abbiamo scattato delle foto di tutti i loro bastoni bianchi in varie posizioni» ricorda Marita «Subito dopo le abbiamo caricate sul nostro cloud facendole analizzare dal nostro algoritmo. In questo modo abbiamo dimostrato come sia più facile tirare fuori il cellulare e scattare una foto per sapere se il bastone “perduto” è effettivamente nel luogo dove la persona non vedente immagina che sia».
Per ora la app è in versione beta ma prestissimo sarà disponibile all’interno dell’apple store. In attesa di test ufficiali, Alberto e Marita hanno coinvolto più di cento non vedenti nello sviluppo del loro progetto. E grazie ai loro feedback, quasi tutti positivi, l’app ha raggiunto un grado di maturazione notevole: «Ma come tutte le innovazioni in questo settore servirà ancora del tempo per raggiungere traguardi ancora più importanti».
I possibili usi nella robotica
Lo studio dell’intelligenza artificiale è una delle eccellenze di Marita Cheng. Ed è proprio lei ha spiegare quali potrebbero i vantaggi di quest’innovazione nell’ambito della robotica: «Non è difficile immaginare un assistente casalingo che sia in grado di ricordarci dove abbiamo lasciato le chiavi o un robot che possa guidarci all’interno di luoghi in cui è difficile orientarsi come gli aeroporti».
Riguardo la visione a lungo termine del progetto la parola torna ad Alberto: «Far crescere questa tecnologia significherebbe, a breve, poter identificare gli oggetti nel mondo fisico, quello reale, e cercarli come se fossero sul web con Google».
Chi sono (e cosa hanno fatto) Alberto e Marita
Alberto Rizzoli si è Laureato in Management alla Cass Business School di Londra. La sua prima startup, Kidesign, aveva come missione quella di portare tecnologie come la stampa 3D nelle scuole attraverso attivitá di collaborazione creative per ragazzi delle eta 6 a 12. I risultati del lavoro sono stati presentati alla Maker Faire Rome e al Parlamento inglese. Dal 2015, Alberto é co-autore della serie letteraria FutureScapes, avendo pubblicato il primo volume “The Future of Business” (il futuro del mondo aziendale) a Giugno. Il libro raccoglie le idee originali di 60 futuristi, ognuno esperto in un industria specifica che vedrá una vera e propria rivoluzione nei prossimi anni. Il volume ha gia venduto diverse migliaia di copie nei primi mesi dalla stampa iniziale.
Marita Cheng è founder e CEO di 2Mar Robotics, un progetto nato per costruire braccia robotiche (controllabili da Iphone e android) per disabili. Oggi 2Mar sta sviluppando un robot di telepresenza con braccia robotiche. Ancor prima Marita è stata fondatrice e direttrice di Robogals, che aveva come obiettivo quello di avvicinare giovani ragazze alle nuove tecnologie.
La Singularity University fu fondata nel 2008 da Ray Kurzweil, pioniere nella tecnologie per non vedenti e inventore del riconoscimento ottico dei caratteri e del sintetizzatore, e Peter Diamandis. Oggi il suo scopo è quello di contribuire ad affrontare le grandi sfide dell’umanità selezionando i candidati migliori in vari settori: dalla robotica all’ambiente, dalle nanotecnologie all’energia, dalla medicina allo spazio.
@ilmercurio85