Google e Johnson&Johnson stanno portando avanti un progetto che potrebbe rivoluzionare il campo delle tecnologie robot-assistite da utilizzare in sala operatoria. Vi raccontiamo come con un commento di Paolo Colli-Franzone.
Il mondo della medicina sta cambiando radicalmente e le tecnologie associate all’e-health promettono numerosi sviluppi nel prossimo futuro, tanto che le grandi aziende ci investono fondi e risorse in misura sempre maggiore. Che a farlo fosse anche Google potrebbe stupirci. Ma anche no.
Cominciamo dall’inizio: alzi la mano chi non conosce i Google Glass. Per quei pochi che ancora non sanno di cosa stiamo parlando, si tratta dei device indossabili per la realtà aumentata della nota casa di Mountain View. Vidiemme e Rokivo sono state le prime aziende ad aver portato in Italia i prototipi Google Glass fin dentro le sale operatorie (video), poco più di un anno fa.
Una vera rivoluzione perché, per loro natura, questi wearable devices prevedono un utilizzo “a mani libere”. In questo modo il chirurgo è potenzialmente in grado di prendere decisioni sempre più tempestive, col riscontro dei dati clinici del paziente visualizzati sulla lente dei suoi occhiali. Ma da Google devono aver pensato che non bastasse soltanto l’aiuto di un ”occhio virtuale” a rendere più efficiente il lavoro dei medici. Ora infatti, la promessa è quella di implementare un’intelligenza artificiale che assista non solo la loro mano, ma anche i processi decisionali e la performance dei medici.
Per farlo il team Life Sciences di Google si è unito ad Ethicon – divisione tecnologica di Johnson&Johnson Insieme stanno portando avanti un progetto che promette interessanti sviluppi nel campo delle tecnologie robot-assistite da utilizzare in sala operatoria. Vediamo quali.
Google entra in sala operatoria con Johnson&Johnson
Questa joint venture nasce per sfruttare i dati collezionati durante milioni di operazioni, al fine di sviluppare robot chirurgici di nuova generazione che possano assistere gli specialisti in tempo reale durante un intervento. La mano del chirurgo quindi, potrà essere guidata dal robot passo dopo passo, con una percentuale di errore minima.
La piattaforma in fase di sviluppo però, vuole essere molto più di un semplice utilizzo dei big data in campo medico. L’idea è quella di mettere assieme – forse per la prima volta – elementi di robotica, realtà aumentata e analisi dei dati. Le tecnologie di Google per l’analisi delle immagini e il riconoscimento facciale verranno integrate nei dispositivi medico-chirurgici prodotti dalla Johnson&Johnson. Il tutto corredato da una vasta gamma di dati analitici provenienti dalla storia dei pazienti, precedenti interventi, stato di salute, usi e abitudini.
I robot sono stati pensati soprattutto per la chirurgia invasiva – interventi molto delicati che sottendono sessioni operatorie lunghe e faticose – e, dal punto di vista del paziente, per limitare problemi di cicatrizzazione, sofferenze e lunghi periodi di recupero.
Una nuova generazione di robot chirurgici
L’azienda della grande G non è nuova ad “incursioni nel campo della medicina. L’unità di ricerca Google X lavora da tempo su diversi progetti – chiamati Moonshot – di cui fanno parte gli stessi Google Glass ed anche delle innovative lenti a contatto “intelligenti” in grado di misurare i livelli di glucosio nel sangue, studiate in collaborazione con Novartis. Recentemente ha acquisito la società Calico, impegnata nella ricerca di innovative terapie antitumorali e lo scorso anno ha lanciato il programma Google Genomics, offrendo ai ricercatori la possibilità di archiviare sul suo Cloud i genomi umani conservati nei laboratori. Ora è il momento di mettere a frutto gli sviluppi dell’intelligenza artificiale applicata alle immagini.
“Il valore aggiunto di questa iniziativa è nel software di analisi dell’immagine”, rivela Paolo Colli Franzone, presidenze dell’Osservatorio Netics. Gli algoritmi di Google infatti, analizzeranno le immagini utili durante l’operazione e potranno evidenziare gli elementi poco visibili come vasi sanguigni, nervi o i margini di un tumore. Altro esempio è la possibilità di consultare in tempo reale risonanze magnetiche e guide anatomiche. Il tutto visualizzato in overlay sulle interfacce usate per operare con i robot. “In altre innovazioni che sono già arrivate c’è “soltanto” l’utilizzo di un visore e/o di un assistente virtuale, che però non aggiunge intelligenza all’immagine visualizzata”, spiega Colli Franzone. “L’uso degli algoritmi interpretativi marchiati Google potranno fare la differenza in questo scenario”.