firma email wapp 3

L’Intelligenza Artificiale è equa e inclusiva? Secondo una ricerca dell’European institute for gender equality, in Europa e nel Regno Unito solo il 16 per cento delle persone che lavorano nel campo dell’AI sono donne e solo il 12 per cento ha più di 10 anni di esperienza. Non solo. L’Intelligenza Artificiale rischia di rafforzare le disuguaglianze di genere. Il motivo è semplice: poca attenzione viene rivolta all’organizzazione dei dati utilizzati per l’addestramento dei software, con la conseguenza che l’Intelligenza Artificiale non appare neutrale ma, anzi, rispecchia la società attuale, dove ancora è presente la disparità di genere, anche se forse in modo meno manifesto rispetto al passato. Secondo Giuneco, software house ideatrice del Dorothy Program – il progetto che combatte il gender gap nell’universo tech – per migliorare il percorso verso una totale parità di genere non basta avvicinare le ragazze alle discipline STEM (Science, Technology, Engineering and Mathematics) ma è necessario agire alla base, correggendo bias e pregiudizi insiti nel settore IT per renderlo un luogo più inclusivo e giungere a una parità di genere senza discriminazioni. Ne parliamo con Giulia Nocchi, Marketing e Communication Specialist e Federico Teotini, Software Engineer di Giuneco.

Alcuni dati

Secondo una ricerca di Eige, l’European institute for gender equality, il settore dell’Intelligenza Artificiale non è così equo come sembra nell’ambito della parità di genere. In Europa e nel Regno Unito solo il 16 per cento delle persone che lavorano nel campo AI sono donne e solo il 12 per cento ha più di 10 anni di esperienza. Dati che riflettono in generale il mercato del lavoro per le donne in generale. Secondo un’analisi realizzata dal Centro Studi di Assolombarda e pubblicata su Your Next Milano, la media italiana delle donne occupate è sotto il 50 per cento, fra le più basse in Europa. Nel 2021 l’occupazione femminile scende anche a Milano di 5mila donne occupate, pur mantenendo un divario di genere inferiore rispetto alla Lombardia e all’Italia. Tornando all’AI, i dati sono preoccupanti perché nonostante il settore sia in forte sviluppo, le donne che vi lavorano sono ancora troppo poche. Il peso degli stereotipi di genere su questi dati è rilevante, come evidenzia Giulia Nocchi, facendo riferimento alla psicologia e alla sociologia: “Gli stereotipi di genere pesano moltissimo. Innumerevoli studi hanno dimostrato che la socializzazione al genere si costruisce fin dalla prima infanzia dalla famiglia e sia consolidata poi dalle altre agenzie educative come la scuola, il gruppo dei pari e persino i media”.

 

cyber glasses 1938449 960 720

 

Stereotipi, scienza e genere, come disegniamo la figura dello scienziato?

A dimostrazione di quanto incida la socializzazione al genere, Giulia Nocchi fa riferimento a una interessante metodologia proposta in una ricerca del sociologo David Wade Chambers del 1983 e riproposta in vari studi: “La percezione stereotipata di sé e dei ruoli risulta evidente da numerose ricerche; emblematica la metodologia Draw a Scientist Test che chiede a bambini e ragazzi di varie fasce di età, di disegnare come loro immaginano la figura dello scienziato. L’analisi di tali dati è molto interessante: oggi bambini e bambine al primo anno della scuola primaria disegnano percentuali pressoché equivalenti di scienziati uomini e donne; crescendo, la proporzione tende a ridursi sempre di più e arrivano da adolescenti a disegnare quasi esclusivamente uomini secondo stereotipi ben precisi: maschi bianchi di mezza età, misantropi, eccentrici e impegnati in professioni che tendono a isolarli in quanto sembrano esseri totalmente dediti e assorbiti dal proprio lavoro”.

Poche donne nelle discipline STEM: colpa degli stereotipi di genere?

La Nocchi riflette anche su un altro stereotipo: “L’avvento della tecnologia ha reso possibile l’affermarsi di un altro stereotipo, quello del nerd, più tipico delle professioni attinenti al mondo informatico. Il noto psicologo David Anderegg nel suo libro ‘Nerds: Who They Are and Why We Need More of Them’ si sofferma su questa figura e afferma che: <<I nerd sono, per definizione: non sexy, interessati alla tecnologia, non interessati al loro aspetto personale, entusiasti di cose che annoiano chiunque altro e infine perseguitati da non-nerd, talvolta identificati con il termine jock>>.  A tal proposito è particolarmente illuminante un passaggio del testo ‘The Second Self’ della psicologa Sherry Turkle, in cui afferma che la nostra società accetta l’esistenza di una netta separazione tra scienza e sensualità, cioè che differenzia gli <<individui che sono a loro agio con le cose (nerd) dagli individui che sono a loro agio con le persone (jock)>>. La definizione di nerd richiama tratti che sono assimilabili alla figura dello scienziato eccentrico e antisociale e fa emergere quanto il ruolo che comunemente la società attribuisce alla donna sembri incompatibile con le caratteristiche stereotipate di chi lavora nel campo scientifico (quali ad esempio l’eccentricità, la scarsa attenzione alla moda e all’estetica o la misantropia). Le donne sono, infatti, socializzate per essere relazionali ed espressive, come si può evincere anche dagli studi che hanno analizzato il processo di produzione e l’utilizzo dei luoghi comuni nella comunicazione verbale che vede ancora ben radicati questi stereotipi (Bourne 1990, Guia Soncini). Per citarne solo alcuni: ‘le donne amano l’arte e la letteratura’, al contrario degli uomini i quali ‘hanno una grande propensione per le attività tecniche’; o ancora ‘le donne sono molto sensibili nei confronti dei sentimenti e bisogni altrui’, mentre gli uomini ‘separano il pensiero, dai sentimenti’. Nell’immaginario comune il modello dominante di come ci si aspetta che una donna appaia è che sia bella, decorativa ed espansiva e non predisposta alle materie tecniche; tutto questo contribuisce a perpetuare le dinamiche che la orientano verso percorsi lontani dagli ambiti STEM”.

 

coding 1841550 960 720

 

Intelligenza Artificiale e gender gap

Gli stereotipi di genere influenzano la partecipazione delle donne alle discipline STEM, ma non solo; al contrario di quanto si potrebbe credere, condizionano anche il mondo dell’Intelligenza Artificiale, che si rivela non così neutra come si pensa. Infatti, i modelli di AI sono realizzati in modo da imparare dalle informazioni che sono fornite dalle persone che li programmano: vengono utilizzati cioè dei dati per addestrare il software. Se questi dati sono stati settati con informazioni non ragionate e non del tutto rappresentative, gli esiti possono anche essere discriminatori. Spiega Federico Teotini: “Il ruolo del linguaggio e delle immagini nell’addestramento di software è fondamentale perché la quasi totalità dei sistemi di Intelligenza Artificiale attualmente esistenti si basano esclusivamente su queste informazioni, o più in generale, su dati di qualsiasi forma usati come input durante la fase di addestramento. In quest’ultimo stadio del processo il sistema di AI cerca di ‘capire’ se esiste uno schema generale a cui può attingere e lo trova proprio nei dati usati per l’addestramento. Se questi ultimi non sono bilanciati – cioè ad esempio raccontano di una situazione di disuguaglianza – il sistema di AI non potrà fare altro che usare questa informazione per fare il suo lavoro, rischiando quindi di perpetuare stereotipi e disuguaglianze”.

Come un software può discriminare

L’addestramento involontario dell’AI può avere un notevole impatto sul gender gap, come evidenzia Giulia Nocchi: “L’utilizzo inconsapevole dell’AI nell’ambito del gender gap può impattare non solo sugli stereotipi di genere, fungendo da veicolo per radicare la discriminazione, ma potenzialmente potrebbe anche trasformarsi in un vero e proprio strumento per relegare la donna a determinati compiti, ruoli e professioni piuttosto che altri”. Un esempio si trova in un data-set (ATS, Applicant Tracking System) impiegato per addestrare un software per la gestione del processo di recruiting: “Nell’esempio del data-set utilizzato per la selezione di Curriculum per figure apicali nel ramo dell’ingegneria, emerge che il modello ha assegnato un punteggio negativo alla parola ‘femminile’ penalizzando i curriculum che includevano tale parola, come in ‘capitano del club di scacchi femminile’ o ‘college femminile’. Questo non è altro che lo specchio delle dinamiche lavorative della società in cui la maggior parte degli ingegneri e dei ruoli ai vertici sono tutt’oggi svolti da uomini. Il sistema, quindi, ha discriminato i curriculum con termini al femminile perché trovava più corrispondenze con i candidati che si descrivevano usando termini al maschile presenti nei curriculum degli uomini. È in questo caso che l’AI, se utilizzata inconsapevolmente, può escludere le donne dall’assumere ruoli ritenuti tradizionalmente di appannaggio prettamente maschile, accentuando ancora di più il gender gap”.

“L’AI, se utilizzata inconsapevolmente, può escludere le donne dall’assumere ruoli ritenuti tradizionalmente di appannaggio prettamente maschile, accentuando ancora di più il gender gap”

technology

 

Come correggere i pregiudizi nell’Intelligenza Artificiale?

Come correggere allora bias e pregiudizi nel settore dell’AI per renderlo più inclusivo? A rispondere è Federico Teotini: “I dati usati per addestrare i sistemi di AI provengono dal mondo reale, sono figli della nostra società e come tali rispecchiano un mondo in cui, purtroppo, le disuguaglianze esistono. Il primo passo da parte dei ricercatori e delle aziende per correggere bias e pregiudizi nell’ambito dell’AI potrebbe essere quello di sensibilizzare rispetto al problema e le sue possibili conseguenze. Operando in primis sulla consapevolezza personale di ognuno di noi si potrebbero trovare metodi e soluzioni da applicare, negli ambiti adatti, ai dati di addestramento per fare in modo che i sistemi di AI non possano ‘imparare’ dagli errori insiti nella nostra società”. Un tema aperto riguarda il processo che a partire da un input porta a un dato output. Spiega Teotini:” Comprendere e poi controllare il processo che porta a un certo output è uno degli ambiti di ricerca più caldi nel mondo dell’AI. A oggi, tutti i sistemi di AI una volta addestrati sono come un macchinario in cui entra la materia prima (l’input) e ne esce il prodotto finito (l’output), ma di cui non possiamo capire come siano assemblati gli ingranaggi, ovvero non sappiamo descrivere il processo che porta dall’input all’output. Come è facile immaginare, questa conoscenza viene ritenuta un pezzo molto importante all’interno del puzzle che è l’AI e che sta impegnando ricercatori, imprese e università di tutto il mondo. Quando anche questa problematica verrà risolta, potremmo controllare il processo e quindi applicare tutte le eventuali correzioni che riterremo utili e anche – speriamo – etiche”.

La formazione contro il gender gap

Con una maggiore consapevolezza e i passi avanti nella ricerca, l’AI potrebbe inventare un mezzo per combattere gli stereotipi di genere. Spiega la Nocchi: “Tutto ciò che può concorrere a sradicare gli stereotipi è sicuramente una risorsa importante per l’abbattimento del gender gap. Non dobbiamo considerare la tecnologia come una ripetizione infinita di processi e modi di concepire il mondo ormai superati; anzi, l’AI potrebbe aiutarci a indagare il passato per predire il futuro, avendo il compito virtuoso di supportarci nel cambiamento verso le pari opportunità degli individui”. Seguendo questa logica, la formazione assume un ruolo decisivo: “Una corretta formazione ha sicuramente il ruolo di gettare le fondamenta per qualsiasi miglioramento; in questo modo professioniste e professionisti possono meglio comprendere i limiti dei dati per saperli maneggiare con cura e più consapevolezza. Il tema della formazione è ricorrente anche negli studi sulle nuove frontiere di educazione alla parità di genere, dove risulta quindi fondamentale che i professionisti coinvolti in campi che abbiano a che fare con la diversity & inclusion siano dotati di strumenti critici volti a implementare una cultura della parità nella loro pratica quotidiana”.

Dorothy Program, l’incubatore che combatte il gender gap

Formazione, dialogo e ricerca, dunque, sono centrali sia per avere una maggiore consapevolezza da parte di chi addestra i software sia per favorire l’ingresso delle donne nelle discipline STEM e dunque promuovere il loro ingresso nell’universo tech. Per favorire l’inclusione delle donne nel mondo della tecnologia e dell’AI, Giuneco ha dato il via al Dorothy Program, un incubatore di progetti che ha l’obiettivo di ridurre il gender gap. Spiega Giulia Nocchi: “Noi di Giuneco ci siamo resi conto che, nonostante il clima fortemente inclusivo che si respira all’interno dei nostri uffici, le donne sono comunque una netta minoranza e il perché è fin troppo semplice: non si trovano figure femminili che si occupino di sviluppo software! Le donne iscritte a facoltà STEM sono solo il 18,3 per cento ed è proprio da questo dato che abbiamo voluto iniziare il nostro progetto di inclusione”. È nato, quindi, il Dorothy Program, un incubatore di progetti che ha come scopo l’inclusione delle donne nel mondo dell’informatica.

“Le donne iscritte a facoltà STEM sono solo il 18,3 per cento ed è proprio da questo dato che abbiamo voluto iniziare il nostro progetto di inclusione”

“In questi mesi trascorsi dal lancio del progetto abbiamo organizzato un laboratorio in una scuola per avvicinare le studentesse al mondo STEM, attivato dei percorsi di tirocinio in azienda con una studentessa di una nota Università Americana, finanziato una borsa di studio per una ragazza che abbiamo poi assunto al termine del suo percorso di studio. Ultimo ma non ultimo ci siamo concentrati sulla divulgazione, perché abbiamo notato che parlare della questione e intervistare role model di donne impiegate in questo settore è un importante tassello, sia per riuscire ad acquisire la giusta consapevolezza del problema, sia per ispirare le giovani informatiche del domani”.