Il software disponibile su internet ti permette di osservare che tipo di etichette i sistemi di intelligenza artificiale usano per categorizzare i volti delle persone. I risultati possono essere divertenti, ma anche profondamente sbagliati
Che tutto il materiale che carichiamo in rete venga in qualche modo usato per una a volte non ben precisata forma di profilazione è un fatto ormai assodato e che ormai ci trova abbastanza rassegnati. Trovarsi, però, di fronte a una descrizione dettagliata di come l’intelligenza artificale ti classifica a partire da un tuo selfie è un’altra storia. Ti può far arrabbiare o anche sorridere, soprattutto se le conclusioni a cui arriva sono completamente prive di senso.
ImageNet Roulette
La memoria corre inevitabilmente alle teorie del Lombroso secondo il quale era possibile riconoscere un criminale dalle sue caratteristiche anatomiche. Questa è sicuramente un’altra epoca, ma i risultati sono altrettanto fantasiosi e anche un po’ divertenti. Provare per credere: basta usare il tool disponibile online su ImageNet Roulette. Si tratta di una provocazione ideata per far conoscere le etichette che le macchine usano per classificare le persone. Attualmente il software fa parte anche della mostra Training Humans di Trevor Paglen e Kate Crowford in esposizione alla Fondazione Prada di Milano fino al 24 febbraio 2020.
La mostra Training Humans alla Fondazione Prada a Milano
È dal 2009 che i creatori di ImageNet raccolgono le immagini usate per addestrare l’intelligenza artificiale e si lasciano incuriosire dai modi in cui questo materiale viene poi processato. Come riporta The Verge il focus dell’iniziativa è raccontare la storia delle immagini utilizzate per riconoscere gli umani nei sistemi di intelligenza artificiale: «Non eravamo interessati alla versione pubblicizzata dell’intelligenza artificiale o ai racconti su un fututo distopico fatto di robot. Volevamo avere a che fare con la materialità dell’AI e considerare le foto di ogni giorno come una parte di una cultura visuale in evoluzione», ha detto Kate Crawford alla Fondazione Prada.
Pregiudizi e discriminazioni dell’AI
Il software che tutti possono divertirsi a usare in rete, caricando una foto è stato elaborato dallo sviluppatore Leif Ryge. Quando un utente carica un’immagine, l’applicazione individua le facce presenti e applica un’etichetta. La cosa divertente è che senza un apparente motivo si può finire classificati come fumatori di pipa o come assitenti di volo, pur non essendoci alcun elemento visuale che lo suggerisca. Il progetto mette quindi in evidenza gli enormi difetti della classificazione facciale che è soggetta a pregiudizi in alcuni casi possono rivelarsi discriminatori o misogini.
Fare luce su un processo ancora fallibile
Al di là quindi dell’intento ricreativo di questo agile sistema disponibile su internet, l’intenzione dei suoi creatori è quella di aprire uno squarcio su un processo che spesso rimane oscuro e che comunque è ancora estremamente fallibile. «Più la classificazione delle persone attraverso i sistemi di intelligenza artificale diventa invasiva e complessa, più i loro pregiudizi e la loro politica diventano evidenti. All’interno di questi sistemi, le forme di misurazione facilmente, ma occultamente si trasformano in giudizi morali», si legge nella descrizione della mostra.