Instagram sta testando nuove funzionalità per offuscare i messaggi contenenti immagini di nudo con l’obiettivo di salvaguardare gli adolescenti e impedire a potenziali truffatori di raggiungerli. A comunicarlo è la stessa Meta, sotto i riflettori di Stati Uniti e Europa a causa delle accuse secondo cui le sue app creerebbero dipendenza e alimenterebbero problemi di salute mentale tra i giovani.
Leggi anche: Perchè il sindaco di New York ha fatto causa a Meta, Google, Snap e TikTok
Le nuove funzionalità di Instagram
Secondo quanto affermato da Meta, Instagram utilizzerà l’apprendimento automatico sul dispositivo per analizzare se un’immagine inviata tramite il servizio contiene nudità. La funzione sarà attivata tramite un’impostazione predefinita per gli utenti sotto i 18 anni e il colosso guidato da Zuckerberg promette di lanciare una campagna di comunicazione per incentivare i genitori a incoraggiare i figli minori ad attivarla. «Dato che le immagini vengono analizzate sul dispositivo stesso, la protezione dalla nudità funzionerà anche nelle chat crittografate end-to-end, dove Meta non avrà accesso a queste immagini, a meno che qualcuno non scelga di segnalarcele», segnala la società.
I piani di Instagram per proteggere i minori
A differenza delle app Messenger e WhatsApp di Meta, i messaggi diretti su Instagram non sono crittografati, ma la società ha dichiarato di voler implementare la crittografia per questo servizio. Meta ha anche affermato che sta sviluppando una tecnologia per aiutare a identificare gli account che potrebbero essere potenzialmente coinvolti in truffe di sextortion e che sta testando nuovi messaggi pop-up per gli utenti che potrebbero aver interagito con tali account. Già lo scorso gennaio, l’azienda di Zuckerberg aveva annunciato che avrebbe nascosto più contenuti agli adolescenti su Facebook e Instagram, aggiungendo che questo avrebbe reso più difficile per loro imbattersi in contenuti sensibili come suicidio, autolesionismo e disturbi alimentari.