Il Project Soli è pronto a rivoluzionare il mercato della tecnologia: un piccolo chip-radar in grado di rilevare i gesti e i movimenti delle mani, con i quali controlleremo tutto ciò che ci circonda.
Durante il workshop “Museum Vision 2026” a Palazzo Madama a Torino lo scorso 16 giugno, organizzato da Fondazione Torino Musei con la collaborazione della Singularity University, è intervenuto Dale Herigstad (SeeSpace, Advanced Interaction Consultant, Creative Director for motion graphics in TV e film di successo come Minority Report), con uno speech dal titolo “Il potere della gestualità nella realtà aumentata”.
Durante il suo intervento ha inoltre presentato il Google Project Soli, un prodotto quasi pronto per il lancio sul mercato, che potrebbe portare a una rivoluzione degli spazi inutilizzati tra utente e macchina.
Soli è un sensore che permette una interazione senza filtri, senza interfacce intermedie tra noi e l’oggetto tecnologico. Il piccolo chip utilizza un radar per il monitoraggio del movimento della mano, trasformando gli impulsi in comandi per gli oggetti.
Soli, un po’ di storia
Google già nel 2011 aveva depositato il brevetto per un sensore che avrebbe permesso il controllo di sistemi tecnologici attraverso la semplice gestualità delle mani. Creato in quello che viene chiamato “ATAP”, il laboratorio delle meraviglie, quello delle tecnologie avanzata di casa Google. L’obiettivo? Creare un linguaggio di interazione gestuale comune che permetta alle persone di controllare tutti i dispositivi, di casa e ufficio, in modo semplice e intuitivo, senza interfacce intermedie. Prevedendo un futuro in cui la mano dell’uomo diverrà essa stessa un dispositivo universale per l’interazione con la tecnologia, il chip Soli incorpora sensori e antenne in un pacchetto di 10 x 8 millimetri, ultra compatto.
Le mani sono l’unica interfaccia di cui avrete bisogno
Soli si serve dei cosiddetti strumenti virtuali, ossia i gesti che simulano le interazioni comuni con gli strumenti fisici. Il sensore tiene traccia dei movimenti a livello sub-millimetrico, ad alta velocità e con grande precisione.
Ad esempio immaginate un pulsante invisibile tra il pollice e l’indice: con Soli sarà possibile premerlo toccando le dita una con l’altra. O un quadrante virtuale che si attiva per sfregamento del pollice contro l’indice. Queste e molte altre sono le interazioni che sono state sviluppate e immaginate con Soli.
Come funziona?
Soli emette onde elettromagnetiche in un fascio di campo ampio.
Gli oggetti all’interno del fascio disperdono questa energia, che riflette verso l’antenna radar. Il segnale riflesso (l’energia) porta con sé informazioni come il delay (ossia il tempo di ritardo), e lo spostamento di frequenza sulle caratteristiche e le dinamiche degli oggetti, tra cui le dimensioni, la forma, l’orientamento, il materiale, e la distanza.
Al fine di raggiungere i gesti delle dita di una mano, il sensore contenuto nel piccolo chip è stato sviluppato con un nuovo paradigma di rilevamento radar, con un hardware su misura, software e algoritmi.
L’obiettivo di Soli
L’intento di Soli è quello di poter essere incorporato nella maggior parte degli oggetti tech che utilizziamo, quindi sì, anche nei wearable. Per fare questo è necessario che le dimensioni del chip siano il più ridotte possibile. Il primo prototipo aveva le dimensioni di una piccola scatola, simile a quelle contenenti un gioiello. Ora è un chip di 10 x 8 millimetri ultracompatto, costituito da due antenne RF da 60 GHz che registrano fino a 10 mila frame al secondo.
Tenendo la mano ferma davanti al chip, verranno segnalati circa tre mila movimenti al secondo. Soli ha un’intelligenza artificiale, in grado di apprendere i movimenti e riconoscerli nel futuro, e possiamo insegnargli gesti e comandi in modo davvero semplice. Insomma, il limite di Soli siamo noi stessi.
Luca Scarcella