Persone comuni, in realtà contractor a tempo determinato selezionati da una società partner, che aiuteranno gli esperti a smentire le bufale. Ecco come funziona
Evidentemente Facebook non ce la fa a fare fact checking col solo aiuto delle organizzazioni partner di Poynter International Fact Checking Network a cui si appoggia per dividere il grano dal loglio dell’immondizia social. E dunque sta assumendo, tramite una società terza quindi non come dipendenti diretti, un certo numero di “fact checker” interni che dovranno aiutare le organizzazioni a passare in rassegna bufale e imposture varie, al fine – come noto – di segnalarle o meno come tali etichettandole e indicando risorse contestuali per farsi un’idea più completa e corretta.
Chi sono i community reviewers
Si chiameranno “community reviewers” e, stando a un post sul blog ufficiale del gruppo di Menlo Park, dovranno lavorare di sponda con le organizzazioni partner. Vale a dire ricercando fonti più semplici e vicine agli utenti rispetto a quelle fornite da quest’ultime per orientare il successivo lavoro degli esperti. Un esempio? “Se c’è un post in cui si dice che una celebrità è morta e i community reviewers non ne trovano altre di simili, o vedono una notizia in cui si dice che quella star si esibirà la sera stessa, possono immediatamente segnalare che quel post non è verificato”. Così scrive il product manager Henry Silverman. In un passaggio successivo, gli esperti rivedranno con più accuratezza l’informazione e la classificheranno in modo definitivo.
I controllori senza grandi qualità
Insomma, questi community reviewers saranno dei controllori di prima istanza, persone che non abbiano necessariamente una preparazione accurata in chissà quali ambiti ma che, come farebbe un utente comune, si limitino a fare due più due, come si dice. Tanto per continuare con l’esempio poco sopra, se mancano fonti certe e numerose e addirittura il personaggio in questione ha appena pubblicato una foto su Instagram be’, forse non è morto e quel post contiene una o più falsità.
Un progetto pilota
A reclutare queste persone ci penserà un partner esterno, Appen. Si tratta di un progetto pilota di cui Facebook valuterà gli effetti “con molta attenzione” nel giro dei prossimi mesi. L’obiettivo è ovviamente offrire ai professionisti una prima scrematura e consentire loro di agire con più rapidità nel contrasto alla disinformazione: “Abbiamo iniziato a valutare l’idea all’inizio dell’anno – ha detto Silverman – da quel momento, abbiamo lavorato con esperti e partner in molti campi per capire come potessimo aiutare i nostri partner fact checker nel loro impegno di revisionare i contenuti con più velocità”.
Come funzionerà
Ecco come funzionerà il nuovo sistema. All’inizio, l’intelligenza artificiale identificherà contenuti potenzialmente fasulli utilizzando una serie di parametri, dai commenti al post che esprimono sentimenti di incredulità alla dinamica di condivisione di quel post, se per esempio arriva da una Pagina nota per diffondere di solito porcherie. Se c’è in effetti l’indicazione che quel post possa essere una bufala, sarà inoltrato a un gruppo di community reviewers a cui verrà chiesto di identificare il problema centrale di quel contenuto e di individuare fonti che lo confermino o smentiscano, “proprio come farebbe un utente di Facebook che volesse chiarire quanto si dice in un post”. Alla fine del percorso i partner di Poynter disporranno così di questo primo lavoro di verifica per capire su quali storie concentrarsi e quali convalidare o marchiare come fake news.