Quando si è di fronte a una tecnologia così dirompente non mancano gli abusi
La startup Bubbles, con sede a San Francisco, è stata bloccata dalla piattaforma di generazione di avatar Synthesia dopo che quest’ultima ha riscontrato violazioni da parte degli utenti, che hanno chiesto a più riprese a un avatar femminile di pronunciare frasi inappropriate. Lo scoop è della testata online Semafor, che ha raccontato la vicenda riguardante una delle tante aziende impegnate a sfruttare la tecnologia di OpenAI, ChatGPT, per far leva sull’intelligenza artificiale e migliorare i propri servizi.
In particolare, quello di Bubbles è descritto come simile a Slack (nota chat aziendale) che sfrutta però i video messaggi. Tra le feature disponibili fino a poco tempo fa (poi riabilitata con qualche correttivo) c’era anche quella di porre domande a ChatGPT e ottenere in cambio non soltanto la risposta dell’AI: gli utenti di Bubbles la ascoltavano direttamente dalla bocca di un avatar femminile. Nulla di male se non fosse che diversi di loro si sono spinti oltre, con contenuti giudicati inappropriati e sessisti.
Il servizio di Bubbles trasformava infatti il parlato degli utenti in testo, lo spediva a ChatGPT e infine convertiva la risposta in discorso pronunciato da un avatar femminile. «I nostri avatar di intelligenza artificiale sono basati su attori e attrici umani, che probabilmente non sarebbero a proprio agio se le loro sembianze venissero utilizzate in questo modo», ha commentato l’azienda Synthesia che ha bloccato il servizio per la startup USA.
Incidenti simili sono frequenti quando si è di fronte a una tecnologia così dirompente come quella di ChatGPT. Se è vero che molti di questi video con avatar tradiscono difetti di produzione che insospettiscono, non è irragionevole pensare che nei prossimi anni l’innovazione traguarderà un realismo tale da confondere perfino gli occhi più attenti ed esperti. Questa è una delle ragioni per cui diverse personalità stanno chiedendo una regolamentazione dell’intelligenza artificiale.