Spopolano in tutto il mondo una miriade di app e servizi digitali che implementano soluzioni di intelligenza artificiale generativa in chatbot che pur senza presentarsi come veri e propri psicologi o psicoterapeutici si propongono per supportare giovani e adulti alle prese con problemi mentali. A quanto pare, hanno uno straordinario successo di pubblico per tre ragioni principali: funzionano ventiquattrore su ventiquattro e non c’è bisogno di prendere appuntamenti, sono gratuite o, comunque, costano cifre irrisorie rispetto a quelle di un terapista in carne ed ossa e, soprattutto, sembrano capaci di abbattere la resistenza e ritrosia di molti a parlare di certi problemi con chicchessia, medici inclusi.
Le società che gestiscono questo genere di servizi, naturalmente, tengono a chiarire che non si tratta di servizi medici, che la loro intenzione non è quella di sostituirsi ai professionisti del settore e che non bisognerebbe affidarsi ai loro servizi alla ricerca delle stesse terapie che si cercano quando si bussa a uno studio medico. Ma lo fanno attraverso i classici banner e disclaimer che gli utenti chiudono senza neppure aver letto desiderosi solo di iniziare a usare l’app o il servizio. Ed è questo che preoccupa.
Occhio alle app
Perché in tanti, anzi in troppi, soprattutto tra i più giovani, potrebbero prendere troppo sul serio le risposte, le interazioni, i suggerimenti e le indicazioni di queste chatbot che, però, hanno inesorabilmente gli stessi limiti di ogni intelligenza generativa in circolazione: sono più io meno bravi a mettere in fila pensieri verosimili con un certo tono di voce e a sostenere conversazioni con grande empatia ma non offrono alcuna garanzia sul contenuto, sulla “diagnosi” – che tale evidentemente non è – e sulle possibili cure.
Senza dire che gli algoritmi che danno loro anima e respiro, inevitabilmente sono soggetti alle stesse ormai “arcinote” allucinazioni cui è soggetta ChatGPT e i suoi tanti emuli. Solo che quando si gioca con la salute delle persone i rischi sono enormemente più elevati. E nel caso di specie i rischi sembrano completamente fuori controllo perché le app e i servizi in questione finiscono sul mercato passando sotto l’asticella, le regole e la vigilanza cui sono soggetti i dispositivi medici hardware e software e, naturalmente, sono completamente sottratti a ogni regola, di legge e/o deontologica, cui è invece soggetto un professionista medico.
Leggi anche: Femtech: dalle app sul ciclo a quelle sulla fertilità. Perché è allarme privacy
Insomma le app in questione non hanno fatto il giuramento di Ippocrate ma, nei fatti – pur dichiarando di non volerlo fare – per milioni di persone in giro per il mondo sono diventate psicologi e psicoterapeuti di fiducia. Siamo davanti a una situazione insostenibile che minaccia – se già non è accaduto – di provocare danni gravissimi. Aprire la nostra mente e la nostra anima a un’intelligenza artificiale pilotata da una società commerciale completamente estranea al sistema sanitario pubblico o privato è una pessima idea.
E non solo – anche se si tratta naturalmente di uno dei rischi maggiori – perché pseudo-diagnosi e pseudo-cure potrebbero essere completamente sbagliate e produrre conseguenze peggiori del male che ci affligge ma anche perché, inesorabilmente, consegniamo al mercato i nostri segreti più intimi, quelli custoditi nello scrigno del nostro cervello e nel profondo del nostro cuore: i nostri pensieri, le nostre emozioni, le nostre fragilità e le nostre paure.
Si tratta di un patrimonio di inestimabile valore del quale il mercato è ghiottissimo per tante ragioni diverse: dalla loro utilità nel guidare – per non dire manipolare – le scelte di consumo, ai processi di selezione del personale o di determinazione dei premi assicurativi, sino ad arrivare alle cose della politica e della democrazia.
Leggi anche: La biometria mette le ali. Quali dati diamo alle compagnie aeree?
Impossibile dirsi certi che la pletora di società commerciali dietro a app e servizi pseudo-psicoterapeutici diversamente intelligenti non condivida, in un modo o nell’altro, le informazioni raccolte attraverso le chiacchierate dei chatbot con il mercato per ragioni che nulla hanno a che vedere con la volontà di dare una mano a chi si trova in un momento di debolezza.
Poi, per carità, come sempre, lo stesso tipo di tecnologia o tecnologie analoghe, nelle mani di medici, psicologi e psicoterapeutici professionisti in carne ed ossa possono naturalmente rappresentare – e, in qualche caso, già rappresentano – soluzioni di supporto straordinariamente efficaci per talune specifiche situazioni. Ma, al di fuori di queste ipotesi e, quindi, di un rigoroso controllo medico, la presenza sul mercato di soluzioni di questo genere andrebbe, probabilmente, semplicemente vietata.
Come sempre se volete saperne di più su quello che è accaduto in settimana in giro per il mondo su dati, privacy e dintorni, potete leggere qui le notizie quotidiane di PrivacyDaily o iscrivervi alla newsletter di #cosedagarante.