In Europa c’è una corsa al controllo dei social network per combattere terrorismo e odio online. E i Big Tech vogliono dare una mano
In Europa al momento sono due i primi ministri di cui si parla di più, pur mancando apparentemente di punti in comune: Theresa May, primo ministro inglese, nota per essere una forte sostenitrice della Brexit, oltre che per aver subito una grossa sconfitta elettorale alle ultime elezioni, ed Emmanuel Macron, convinto europeista, neo eletto presidente Francese, che ha detto di volersi porre alla guida della Francia, come fosse una startup.
Regno Unito e Francia
Nonostante la diversità, May e Macron si son trovati d’accordo sul volere prendere misure contro il terrorismo laddove è più difficile combatterlo, online
Il piano prevede di imporre delle laute multe ai giganti come Facebook e Google se non si impegneranno a debellare il radicalismo che si diffonde online. Come riportato da Matteo Flora su StartupItalia!, la May il 6 giugno pubblicava su twitter un video in cui affermava:
Se le leggi sui diritti umani impediscono il contrasto all’estremismo e al terrorismo, cambieremo quelle leggi per garantire la sicurezza dei cittadini britannici.
I'm clear: if human rights laws get in the way of tackling extremism and terrorism, we will change those laws to keep British people safe. pic.twitter.com/8EfUJYUDMK
— Theresa May (@theresa_may) June 6, 2017
Ovviamente il tema del terrorismo è caro a entrambi, visto che sia la Francia (a Parigi e Nizza) che il Regno Unito (a Londra e Manchester) hanno subito più di un attacco nell’ultimo anno. Per fare un esempio, riportato dal Guardian, la May accusa YouTube di ospitare sulla sua piattaforma i video di estremisti. Ma a dirla tutta, May e Macron non sono i soli a puntare il dito contro i giganti del web (i cosiddetti OTT, over the top).
Bruxelles
È noto come da mesi si sia acceso il faro sulla lotta alle fake news (notizie false) e all’hate speech (linguaggio d’odio) che sembra popolare i più noti social network. A Bruxelles, lo scorso 10 maggio, Andrus Ansip, Commissario Europeo responsabile per il Digital Single Market (Mercato Unico Digitale), seguito da Vera Jourova, Commissaria Europea per la Giustizia, i Consumatori e l’uguaglianza di genere, hanno riportato i dati dell’accordo fatto con i 4 grandi OTT (Facebook, Google, Twitter e Microsoft) per combattere hate speech e fake news attraverso il rispetto di un Codice di Condotta condiviso. Facebook, che ha recentemente assunto 3000 nuove risorse nel team che si occupa di moderare i contenuti, è quello che ha registrato una performance migliore, e l’unico che sia stato in grado di rispettare gli standard attesi per il numero di notifiche verificate in 24 ore. Da ultimo, il 22 giugno, il Consiglio Europeo, formato dai capi di Stato e di Governo dei paesi membri, ha detto che le piattaforme online hanno la loro responsabilità nella lotta al terrorismo online e ci si aspetta che implementino una tecnologia che sia in grado di rimuovere prontamente contenuti pericolosi.
Il Global Internet Forum to Counter Terrorism
La Germania
Un capitolo a parte lo merita la Germania, che ha ben pensato di dare una accelerata in questa direzione, e il 27 marzo ha mandato alla Commissione Europea una proposta di legge che potrebbe cambiare il modo in cui i social network trattano i contenuti illegali online. La proposta, nelle sue intenzioni, avrebbe il nobile scopo di migliorare il rispetto della legge sui social network. Peccato che la cura potrebbe essere peggiore del male, come riportato anche dalla ONG European Digital Rights (EDRi).
L’art. 14
Al momento la responsabilità dei social network e degli altri fornitori di servizi online è regolata dall’art. 14 della Direttiva e-commerce (2000/31/EC). La direttiva solleva da ogni responsabilità quei fornitori di servizi che siano intermediari e che prontamente rimuovano un contenuto illegale quando segnalato dagli utenti mediante la procedura di notice takedown (banalmente quando un utente clicca su “Segnala” questo contenuto).
La proposta tedesca
La proposta tedesca vuole che questi contenuti siano rimossi entro 24 ore, quando siano “chiaramente” illegali, o una settimana, negli altri casi. In caso di mancato adempimento, le sanzioni possono arrivare fino a 5 milioni di euro. I problemi qui sono molteplici:
- non ci sono indicazioni su cosa sia da considerare contenuto “chiaramente” illegale;
- la legge, contrariamente alla direttiva, è diretta a regolare solo i social network, ma manca una definizione chiara di cosa sia social network.
Le conseguenze: più facile trovarsi un post rimosso
Le conseguenze sono evidenti: nell’incertezza, ogni piattaforma che si creda un social network provvederà a rimuovere qualsiasi contenuto dubbio per non incorrere nella sanzione. È ovvio che sarà più facile trovare i propri post rimossi, magari per l’uso di toni ritenuti offensivi o troppo forti. Valutazioni di questo tipo però, richiedono una preparazione del personale adeguata e un tempo maggiore di qualche decina di secondi per valutare tono e contesto.
Ma anche dal punto di vista del mercato unico digitale, una legge del genere creerebbe incertezza tra le piattaforme che hanno sede o lavorano negli altri Paesi dell’Unione, poiché si avrebbe un precedente che, se replicato, vanificherebbe il concetto di mercato unico digitale e imporrebbe di avere a che fare con leggi diverse per ogni Stato Membro.
Se Facebook è stata segnalata per essere l’unica ad avere rispettato le aspettative i motivi sono principalmente due:
- è l’unica con le capacità economiche per farlo
- è quella che, per numero di utenti e Paesi in cui è presente, è più propensa a limitare i danni che leggi più restrittive potrebbero arrecare.
WhatsApp è un social network?
La definizione di Social Network è così ampia e indefinita (“le piattaforme che permettono lo scambio di ogni tipo di contenuto”) che anche WhatsApp, Telegram o perfino un servizio di email potrebbero finire nel mirino della legge. Dovrebbero quindi questi servizi leggere le nostre email e i nostri messaggi privati per verificare che non ci siano incitazioni al terrorismo? Sembra molto improbabile oltre che lesivo del diritto fondamentale alla privacy.
MySpace conta come Facebook?
Solo i social network con più di 2 milioni di utenti sarebbero sottoposti alla previsione legislativa. Questa precisazione probabilmente voleva servire a sollevare le startup appena entrate sul mercato dall’onere di controllare i contenuti. Peccato che non ci sia una precisazione sul tipo di utenti che siano da considerare. Devono essere registrati? O basta che io crei una piattaforma in cui si possano condividere video e se un solo video diventasse virale e fosse visto da 2 milioni di persone sarei obbligato a dotarmi di una task force per controllare tutti i commenti per procedere a una pronta rimozione?
Per fare un esempio facile per chi sia nato prima del 1990, MySpace era nella prima metà degli anni 2000 quello che Facebook è diventato dieci anni dopo. Ma l’arrivo della concorrenza e scelte sbagliate lo hanno reso un social disabitato, dove molti utenti come me non mettono più piede da anni pur avendo ancora un account. Andrebbero considerati gli utenti registrati o quelli attivi?
Poniamo che abbia creato un social network che, dopo un primo anno alla grande, grazie a massicci investimenti pubblicitari, si sia spopolato e quindi abbia 3 milioni di utenti registrati ma solo 300 mila siano rimasti attivi. Dovrei spiegare in campo le stesse forze per controllare eventuali notifiche pur avendo avuto un ovvio calo di ricavi e investimenti?
E infine i bots. Rientrerebbero nel conto degli utenti? Pensate a Twitter, che secondo un recente studio si stima abbia un esercito di 48 milioni di account bot. Come andrebbero considerati i bot che magari generano frasi d’odio e incitamento al terrorismo? Nessuna risposta all’orizzonte.
I report
Una cosa buona questa legge la porta, l’obbligo di report che i social dovrebbero fare per mostrare quello che stanno facendo contro questo fenomeno. Questa norma aumenterebbe la trasparenza e la fiducia dei consumatori.
Il mercato europeo e le startup
A fronte di tanta incertezza legislativa, difficilmente ci saranno investitori pronti a scommettere sul prossimo Facebook europeo. Inoltre, chiunque non sia un OTT, tenderà a cancellare ogni post sospetto per non incorrere nelle sanzioni creando social deserti e lasciando ancora più spazio ai big americani.
Cosa si può fare
Il modo per porre un freno al diffondersi di messaggi di incitamento al terrorismo non è la privatizzazione della giustizia, lasciata in mano a una manciata di colossi del Web.
È l’educazione all’uso e alla lettura dei media online, capendo cos’è propaganda, cos’è notizia, quali sono le notizie affidabili, quali sono le fonti
È segnalare i messaggi di odio secondo la procedura già prevista dalla Direttiva Europea E-Commerce, senza imporre un timer ai social, ma lasciando il tempo di verificare contesto, fonte, linguaggio. Se i cittadini europei impareranno a fare tutto questo, non ci sarà bisogno di nuovi sceriffi del Web.