Paolo Fiore

Paolo Fiore

Dic 19, 2016

Facebook, la caccia alle bufale e le crepe della neutralità

Il social network ha lanciato una funzione anti-fake. Il meccanismo è coerente con la storia di Facebook, che non interviene direttamente sui contenuti. Anche se le bufale stanno facendo vacillare la corrispondenza tra "neutro" e "buono"

L’elezione di Donald Trump ha sottolineato quello che era già lì, in bacheca: le bufale non sono solo giochini cattura-click ma contenuti in grado di cambiare la percezione della realtà. Il merito della questione non è nuovo. Anche Joseph Goebbels, ideologo della comunicazione nazista, applicava la stessa regola: “Una bugia detta una volta resta una bugia. Ripetuta migliaia di volte diventa verità”. La novità sta nelle dimensioni. Spinta dai mille ruscelli della viralità, una bufala postata su Facebook ha una platea potenziale di 2 miliardi di persone. E sposta voti.

facebook-695108_960_720

Il principio del “non essere malvagio”

I social network sono stati importanti per l’ascesa di Trump. Il Movimento 5 Stelle, come dimostrato da un’inchiesta di Buzz Feed, fa ampio uso di click-baiting e notizie non verificate. Si tratta di una nuova sfida per la democrazia. Ma anche per social e altre tech company, che si ritrovano a fare i conti con le crepe di un loro pilastro: la neutralità.

Il motto di Google, sin dai tempi della sua quotazione, è “Don’t be evil”: non essere malvagio. I fondatori hanno spiegato la frase così: “Crediamo che nel lungo termine saremo serviti da compagnie che fanno cose buone per il mondo”. Mark Zuckerberg ha più volte ripetuto che la priorità di Facebook è “rendere il mondo più connesso e aperto”. Sono espressioni che hanno in comune almeno tre cose: la formulazione di principi etici vaghi, l’idea di una tecnologia buona di per sé e la neutralità come valore (non intervenire è la cosa giusta).

I limiti della neutralità

Nel suo storico spot del 1984, Apple distrugge il mondo distopico immaginato da Ridley Scott. Un martello frantuma lo schermo mentre un Grande Fratello pronuncia queste parole: “Oggi celebriamo il primo, glorioso anniversario della purificazione dell’informazione”. Un tema che, pur senza gli eccessi totalitaristici, è ancora sul banco trent’anni dopo: le bufale hanno evidenziato i possibili rischi del non intervento. Una posizione adottata tanto per ideologia (la maggiore apertura è sempre un bene) e credo economico (il mercato si regola da sé) quanto per comodità: è confortevole delegare la responsabilità alla community o alla presunta oggettività di un algoritmo.

Già adesso Facebook vieta contenuti violenti, razzisti o sessualmente espliciti. Ma lo fa seguendo vincoli ingessati. È una scelta: meglio rigidi che efficaci, pur di non mettere piede sullo scivoloso pavimento della soggettività. Ad esempio: il nudo è tale se nelle immagini compaiono capezzoli. La neutralità sfuma in ipocrisia se non in bigottismo. La censura ponderata è più complessa. Ma soprattutto intaccherebbe la retorica che ha sempre accompagnato i social (per definizione aperti e condivisi).

Anti-bufale in stile Facebook

E allora? Allora Facebook, stretto tra la necessità di correggere le distorsioni e il rifiuto di un intervento diretto, ha partorito una soluzione salomonica: la nuova funzione anti-fake. Dopo aver provato a sminuire il peso delle bacheche (definendo “folle” l’idea che qualcuno abbia potuto votare Trump solo attraverso le bufale), Zuckerberg ha rivisto le proprie posizioni. Ha affermato che “Facebook è ancora una tech company”, ma anche “più di un distributore di contenuti”. Saranno però gli utenti a segnalare le notizie poco attendibili. E sarà un gruppo di giornalisti terzo a valutarle. Facebook le etichetterà, le penalizzerà sul News Feed. Ma non le cancellerà.

Adam Mosseri, uno dei vicepresidente di Menlo Park, ha spiegato perché. Dopo aver premesso che le restrizioni si concentreranno solo “sul peggio del peggio” e che il gruppo “si sta approcciando al problema con molta cautela”, ha scritto: “Non possiamo” (verbo interessante) “diventare arbitri della verità. Crediamo che fornire nuovi elementi possa aiutare le persone a decidere autonomamente in cosa credere e cosa condividere”. La soluzione adottata contro le bufale, pur essendo una novità, non è quindi contraria ma perfettamente organica alla storia di Facebook: delega alla community e neutralità come valore. Basterà? Alle tech company non si chiede più solo di “non essere malvagio” ma anche di fare delle scelte. Non ci si può più nascondere dietro a un capezzolo.

Paolo Fiore
@paolofiore