Una cantonata bella e buona. L’intelligenza artificiale deve ripartire dalle basi
Vedere il razzismo dove il razzismo non c’è. Questa volta non è l’occhio umano a giocare brutti scherzi, ma un algoritmo di intelligenza artificiale (realizzato sempre da umani) che ha avuto da ridire su uno dei più seguiti canali di scacchi su YouTube. Stiamo parlando di agadmator’s Chess Channel, dove il croato Antonio Radic mostra da tempo tutte le sue abilità e strategie per battere gli avversari. Stando a quanto si legge su Techxplore, la vicenda risale al giugno scorso quando il canale era stato bloccato per 24 ore sulla base di motivi che YouTube non ha mai chiarito, limitandosi alla canonica segnalazione di contenuti “dannosi e pericolosi”. Cosa potrà essere mai successo su un canale dove si parla di alfieri e pedoni? Due ricercatori del Carnegie Mellon University hanno avanzato l’ipotesi che l’algoritmo di YouTube si sia attivato sull’espressione bianchi contro neri.
Leggi anche: Big Tech, la Silicon Valley ha un problema con il razzismo?
YouTube: a ripetizione di scacchi
Non serve essere eredi dei campioni di scacchi russi per capire che se si parla di bianchi e neri che si scontrano negli scacchi il riferimento è soltanto alle differenze cromatiche delle pedine sulla scacchiera. «Non sappiamo quali strumenti usi YouTube, ma se si affidano all’intelligenza artificiale per rilevare il linguaggio razzista, allora questo tipo di incidente può capitare», hanno spiegato i ricercatori. Situazioni tragicomiche di questo tipo accadono spesso: le piattaforme talvolta finiscono col fraintendere i contenuti.
Leggi anche: Vaccino anti-Covid19: Cartoni Morti scatenati contro le fake news
Per avvalorare la loro ipotesi i ricercatori hanno allora raccolto 680mila commenti pescati da cinque tra i più famosi canali YouTube dedicati agli scacchi, facendoli poi elaborare da due classificatori vocali all’avanguardia utilizzati proprio per scovare i commenti razzisti. Tra questi hanno selezionato un campione casuale di mille post pubblicati segnalati dall’AI e hanno scoperto che, in realtà, l’82% non conteneva alcun riferimento offensivo o violento. L’intelligenza artificiale verrebbe dunque triggerata – scatenata – da semplici parole come bianco, nero e attacco messe nella stessa frase.