Un software basato sul machine learning sostituisce il volto di attrici porno con quello dei vip. La nuova frontiera del furto d’identità e del revenge porn
Inserire il volto di una persona qualsiasi al posto di quella realmente presente in un video. Può sembrare un tool divertente, in realtà apre scenari più che inquietanti in particolare per i video porno.
Porno, minaccia machine learning
Stiamo parlando di un software che, sfruttando intelligenza artificiale e machine learning, riesce ad adattare una qualsiasi immagine a un video, frame per frame. Ciò significa che è in grado di giustapporre il volto di una qualunque persona, famosa o no, al posto di quella davvero presente in un filmato. Quello che a prima vista potrebbe sembrare uno strumento dalle potenzialità interessanti e magari anche divertenti apre in realtà scenari più che inquietanti.
Il fenomeno parte su Reddit
Tutto è cominciato qualche mese fa su Reddit con un utente chiamato deepfakes che ha iniziato a pubblicare video in cui cambiava il volto dei protagonisti di video porno con quelli di vip di Hollywood: come per esempio Daisy Ridley, l’attrice britannica divenuta celebre per il ruolo da protagonista nell’ultima triologia di Star Wars. Si è subito scatenata una grande attenzione sul fenomeno, ribattezzato deepfakes dal nome dell’utente che per primo ha sfruttato FakeApp, un tool desktop che sfrutta machine learning e intelligenza artificiale open source. Un tool il cui utilizzo sembra essere accessibile a una grande platea. Per l’elaborazione di un breve video serve solo mezza giornata.
Le star colpite dal deepfakes
I video deepfakes hanno subito avuto un grande seguito da chi magari voleva immaginare di assistere a scene di sesso con protagoniste grandi star del cinema. O da chi magari credeva davvero di assistervi. Da Scarlett Johansson a Natalie Portman, da Gal Gadot a Sophie Turner fino a Natalie Dormer ed Emma Watson: i video deepfakes hanno risparmiato poche star hollywoodiane. E sono rimasti coinvolti anche gli uomini, come per esempio Nicolas Cage.
Scenari inquietanti per le persone “normali”
Mentre le autorità stanno cercando di capire come affrontare il fenomeno si muovono anche i big del tech, Twitter e Pornhub, il colosso dei video a luci rosse, hanno pubblicamente denunciato deepfakes. Ma in tutto ciò si apre uno scenario ancora più inquietante. Su Reddit, infatti, molti utenti hanno già chiesto aiuto alla community per realizzare un video a luci rosse inserendo il volto della propria ex fidanzata al posto di quello dell’attrice porno. Se le star di Hollywood hanno infatti vita facile a smentire di essere davvero loro quelli che appaiono nei video porno, che cosa possono fare le persone normali per convincere i propri fidanzati e fidanzate che quel filmato a luci rosse è un falso realizzato magari da un ex o da un ammiratore deluso per vendetta?