Clothoff l’app che tramite Intelligenza artificiale da una foto rimuove i vestiti per generare immagini di nudo è stata bloccata dal Garante per la privacy italiano. La società con sede nelle Isole Vergini Britanniche, che gestisce l’app Clothoff, è al centro di un’indagine finalizzata a contrastare tutte le app di nudificazione.
La decisione del Garante
L’intervento deciso dal Garante che, in via d’urgenza e con effetto immediato, ha imposto una limitazione provvisoria del trattamento dei dati personali degli utenti italiani, si è reso necessario a causa degli elevati rischi che tali servizi possono comportare per i diritti e le libertà fondamentali, con particolare riguardo alla tutela della dignità della persona, ai diritti di riservatezza e di protezione dati personali dei soggetti coinvolti in queste tipologie di trattamenti, specie nei casi dei minori.
Che cosa Clothoff
Attraverso l’AI generativa Clothoff rende possibile – gratuitamente e a pagamento – la generazione di immagini di “deep nude”, ovvero foto e video falsi che ritraggono persone reali in pose nude o sessualmente esplicite o, addirittura, pornografiche. Dopo aver caricato una foto, l’utente, tramite alcuni strumenti di personalizzazione, riceve la stessa fotografia della persona svestita.
Come comunica il Garante, l’applicazione consente a chiunque – inclusi i minorenni – di creare fotografie e realizzare video partendo da immagini, anche ritraenti minori, in assenza di qualsiasi accorgimento che permetta di verificare il consenso della persona ritratta e senza apporre alcuna segnalazione circa il carattere artificiale di foto e video.
Una nuova indagine che arriva dopo le segnalazioni del gruppo Facebook Mia Moglie e del sito web Phica.eu che sono oggi al centro di inchieste legali.