Google ha realizzato e messo a disposizione un nuovo sistema basato sull’intelligenza artificiale in grado di analizzare grandi database di immagini per identificare i contenuti CSAM
La lotta la diffusione del materiale di abuso sessuale sui minori (CSAM) è una priorità per le grandi aziende di Internet. Dover identificare e rimuovere i tanti contenuti di natura pedopornografica presenti in rete, ogni giorno, è però un lavoro difficile e straziante per chi è in prima linea, come i moderatori umani che devono identificare e rimuovere i contenuti offensivi, venendone a contatto con tutte le conseguenze del caso.
Le tecnologie di contrasto
La maggior parte delle soluzioni tecnologiche in questo settore ad oggi utilizzano sistemi molto sofisticati che analizzano immagini e video su un catalogo di materiale abusivo precedentemente identificato e presenti quindi in un database. Per portare alcuni esempi possiamo analizzare da Dalgi Hash, semplici firme digitali dei contenuti, passando dai Perceptual Hash, in grado di individuare anche porzioni di una immagine originaria e similarità anche in caso di alterazioni, al sistema sviluppato da Microsoft denominato PhotoDNA, uno strumento sviluppato da Microsoft e implementato da social network come Facebook e Twitter. Questi strumenti, chiamati “crawler”, impediscono la condivisione di CSAM precedentemente segnalati.
Come funziona il controllo dei contenuti online?
Andando ad analizzare quella che è l’operazione di controllo del flusso dati da parte di Google: da un punto di vista pratico, Google implementa un protocollo di cooperazione che è assolutamente in linea con quanto fatto da molti altri ISP americani in seno anche a public efforts come NY Stop Child Porn.
Il sistema di funzionamento è abbastanza semplice e si basa sull’individuazione di “firme digitali”, detti Hash che consentono di paragonare due file per determinare se sono o meno identici. Dato quindi un database di contenuti notoriamente pedo-pornografici, come ad esempio quello in seno al NCMEC americano, è possibile effettuare tale operazione di verifica senza intervento umano se uno qualunque dei contenuti che transitano sulla piattaforma siano o meno presenti e, quindi, se le comunicazioni o i file allegati siano pedopornografici.
Vi è una ulteriore importantissima proprietà dei database di hash: non contenendo altro che firme digitali, il possesso del database non comporta la “detenzione di materiale pedopornografico” e non mette quindi nella scomoda posizione di dover maneggiare contenuti di questa tipologia.
In questo modo non ho alcuna necessità, se non algoritmica, di controllo.
Ad oggi però non è ancora possibile bloccare materiale che non è già stato contrassegnato come illegale. Per questo motivo è necessario che intervengano dei moderatori in carne ed ossa.
Per questo motivo Google ha recentemente rilasciato un software di intelligenza artificiale gratuito, studiato appositamente per aiutare gli indefessi controllori del web.
L’aiuto della Intelligenza Artificiale
Il nuovo strumento IA di Google, utilizzando l’esperienza dell’azienda nella visione artificiale, non andrà a sostituire i revisori umani con un qualche algoritmo partorito dal colosso di Mountain View, ma assisterà i moderatori grazie ad un software che ordina immagini e video segnalati CSAM e dirà loro a quale contenuto dare la priorità come probabile e da rivedere. Ciò dovrebbe consentire un processo di revisione molto più rapido. In una versione di prova, Google ha fatto sapere che lo strumento AI ha aiutato un moderatore umano ad intervenire su un contenuto CSAM del 700 percento in più nello stesso periodo di tempo.
Nota non marginale di tale innovazione, il fatto che Google ha rilasciato questi algoritmi aperti al pubblico, facendo sì che non solamente la piattaforma stessa li possa utilizzare, ma anche le società esterne che si trovano a dover gestire questa problematica, che ora possono contare sugli sviluppi di Google per, gratuitamente, risolvere il problema anche “in casa loro”.
Ma quale il vero impatto?
Il vice CEO di Internet Watch Foundation (IWF), Fred Langford, definisce questo nuovo strumento offerto da Google come un passo avanti verso sistemi completamente automatizzati in grado di identificare materiali mai visti prima, ed ha affermato che tale strumento “permetterà a team come i nostri a distribuire le nostre limitate risorse in modo molto più efficace”, aiutando con il triathing, senza alcuna interazione umana, come ad oggi invece succede.
Tuttavia, lo stesso Langford, ha aggiunto che questa IA va considerata attendibile solo in “certi casi”, per “evitare che del materiale illegale scivoli attraverso la rete” e per questo l’IWF testerà a fondo il nuovo strumento di intelligenza artificiale di Google per vedere come si comporta e si adatta al flusso di lavoro dei moderatori.
“Qualche anno fa avrei detto che quel tipo di classificatore era a cinque, sei anni di distanza”, afferma Langford. “Ma ora penso che siamo solo a uno o due anni dal creare qualcosa che sia completamente automatizzato in alcuni casi”.
IWF: in prima linea su tematiche CSAM
L’IWF è una delle più grandi organizzazioni dedicate a fermare la diffusione di materiale pedopornografico online, e collabora anche con le forze dell’ordine per identificare siti web in cui vengono condivise immagini o video di abusi sessuale sui minori. IWF ha sede nel Regno Unito ma è finanziato dai contributi di grandi aziende tecnologiche internazionali, tra cui appunto il colosso Google.
Impiega team di moderatori umani per identificare le immagini di abuso e gestisce i suggerimenti in più di una dozzina di paesi per gli utenti di Internet per segnalare materiale sospetto. Svolge anche le proprie operazioni investigative; identificare i siti in cui CSAM è condiviso e collaborare con le forze dell’ordine per chiuderli.
Solo contenuti di minori?
Alla luce di tali importanti novità, viene spontaneo chiedersi come potrebbe mutare lo scenario grazie ad un controllo specifico in differenti ambiti, ad esempio:
- Piattaforme come Google potrebbero essere in grado di filtrare contenuti protetti da Diritto d’Autore, il cui sistema di individuazione andrebbe a funzionare esattamente allo stesso modo?
- Se Google effettua questo tipo di controlli sui contenuti, perché non controlla anche i siti che indicizza, per evitare di lucrare su pubblicità presente su siti pedopornografici e/o che violano il diritto d’autore?
Ma soprattutto, la mancanza di tali azioni, stante la possibilità tecnica dimostrata anche in questo caso di effettuare i controlli, non corrisponde forse ad una precisa volontà di non agire e quindi di essere ritenuto corresponsabile in qualunque tipo di reato commesso?