Dopo essere stato accusata di aver contribuito alla violenza religiosa ed etnica nel Myanmar, Facebook si ritrova ancora con gli stessi problemi nell’individuare e moderare i discorsi di incitamento all’odio e la disinformazione sulla propria piattaforma secondo alcuni documenti interni sul Myanmar visionati da AP.
In un rapporto di tre anni fa commissionato dalla compagnia, si dice che Facebook era solita “fomentare divisioni ed incitare alla violenza nella realtà” nel paese e che prometteva di adottare strumenti e politiche per affrontare i discorsi di odio.
Ad osservare quello che appare sulla piattaforma nel Myanmar non è difficile trovare post dove ci sono minacce di omicidio e stupro.
Le falle ci sono tutte e spesso sono sfruttate da agenti ostili da quando il primo febbraio i militari presero il potere con abusi orrendi dei diritti umani in tutto il paese.
C’è un video di qualche minuto di un sostenitore dei militari che chiama alla violenza contro i gruppi di opposizione che ha avuto 56mila viste.
“Da ora in poi siamo il dio della morte per tutti loro” dice l’uomo in Birmano guardando verso l’obiettivo. “Venite domani e vediamo se siete uomini veri oppure gay”
Un altro ha messo l’indirizzo dell’abitazione di un disertore dell’esercito e della foto della moglie, mentre in un altro post c’era una foto di soldati che conducevano una fila di uomini legati e con gli occhi coperti in una stradina sporca. Il testo diceva: “Non prendeteli vivi”
Eppure Facebook ha considerato le proprie operazione nel Myanmar come un modello da esportare ed un caso in evoluzione e caustico. Nei documenti visionati da AP, Myanmar è diventato un terreno di prove per nuove tecnologie di moderazione dei contenuti in cui la compagnia provava modi differenti per automatizzare l’individuazione di discorsi di odio e disinformazione con differenti gradi di successo.
Le discussioni interne alla Compagnia sul Myanmar sono state rivelate dall’impiegata Frances Haugen trasformatasi in informatrice alla commissione americana in documenti redatti e trasmessi al parlamento USA.
La storia di Facebook nel Myanmar è stata la più breve ma anche la più incostante, dato che dopo decenni di censura sotto i governi militari il Myanmar si è connessa ad internet nel 2000. Appena dopo, Facebook si associò con due imprese di servizio telefonico permettendo agli utenti l’uso della piattaforma senza dover pagare per il costo dei dati che erano notevoli.
Per molti in Myanmar Facebook era il sinonimo di internet stesso.
Htaike Htaike Aung, un’esperta di politica della rete, ha detto che Facebook nel 2013 era diventato “la culla dell’estremismo”, in coincidenza dei disordini religiosi nel Myanmar tra buddisti e musulmani. Non si sa se ci fosse o meno una moderazione dei contenuti in quei giorni.
L’esperta ha detto che quell’anno ebbe un incontro con Facebook ed espose le problematiche nel paese tra cui il modo in cui le organizzazioni locali osservavano la crescita esponenziale di discorsi di odio sulla piattaforma in cui i meccanismi di prevenzione non funzionavano nel contesto birmano.
Lei citò una foto in cui erano ammassati mazze di bambù in cui c’era la dicitura: “Prepariamoci perché ci saranno disordini che accadranno dentro la comunità musulmana”
La foto fu denunciata a Facebook ma la compagnia rifiutò di toglierla perché no violava i suoi standard di comunità.
“La cosa è ridicola perché di fatto chiamava alla violenza, ma Facebook non la vedeva così”
Anni dopo, questa mancanza di moderazione ha attratte l’attenzione del mondo. A marzo 2018, gli esperti dei diritti umani dell’ONU, che indagavano sugli attacchi contro la minoranza Rohingya musulmana, dissero che Facebook aveva giocato un ruolo nella diffusione dei discorsi di odio.
Un mese dopo all’audizione in Senato USA il CEO Mark Zuckerberg a chi gli chiedeva del Myanmar rispose che Facebook pianificava di assumere dozzine di persone che parlano birmano per moderare i commenti e che avrebbe lavorato con la società civile per identificare i responsabili di chi incita all’odio e sviluppare tecnologie per combattere i discorsi di incitamento all’odio.
“I discorsi di incitamento all’odio hanno un linguaggio molto specifico. Difficile farlo senza persone che parlano la lingua locale e abbiamo bisogno di accrescere fortemente i nostri sforzi”
I documenti interni a Facebook mostrano che è vero che la compagnia accrebbe gli sforzi per combattere i discorsi di incitamento all’odio, ma che gli strumenti e le strategie non sono mai stati utilizzati, mentre varie persone dentro la compagnia hanno dato varie volte dato il segnale di allarme.
In un documento di maggio 2020 un impiegato disse che uno strumento informatico disponibile non era né usato né curato. Un altro documento diceva che c’erano ancora importanti ritardi nella scoperta della disinformazione nel Myanmar.
“Facebook fece qualcosa di simbolico per ammansire i parlamentari per dire che si faceva qualcosa senza però dare uno sguardo più approfondito” ha detto Ronan Lee, un professore in visita della International State Crime Initiative della Queen Mary University di Londra.
In una dichiarazione mandata via email ad AP, Rafael Frankel direttore della politica per i Paesi Emergenti APAC, ha detto che Facebook aveva un gruppo dedicato di 100 persone di lingua birmana, senza però dire quanti erano impiegati. Secondo alcune stime ci sarebbero in Myanmar 28,7 utenti di Facebook nel Myanmar.
Nella sua testimonianza del 9 novembre al parlamento Europeo, Haugen ha criticato Facebook per la mancanza di investimenti in servizi di terze parti di controllo dei fatti, preferendo affidarsi a sistemi automatici per individuare contenuto pericoloso. Ha detto:
“Se ci si attiene a questi sistemi automatici, essi non funzioneranno nei posti del mondo con grandi diversità etniche, con grandi differenze linguistiche che sono anche situazioni tra le più fragili.”
Dopo la testimonianza al congresso USA del 2018 di Zuckerberg, Facebook ha sviluppato mezzi digitali per combattere disinformazione e discorsi di incitamento all’odio e ha creato un quadro interno nuovo per gestire le crisi come quella birmana nel mondo.
Facebook ha fatto una lista di “paesi a rischio” con livelli precisi per un “gruppo di paesi critici” su cui focalizzare la sua energia, ed ha anche valutato le lingue che necessitano maggiore moderazione dei contenuti. Myanmar è posto al Livello 1 come paese a rischio ed il birmano è una lingua prioritaria insieme all’etiope, al Bengali, all’arabo e l’urdu.
Gli ingegneri di Facebook hanno insegnato le parole correnti birmane per “musulmani” e “Rohingya” al sistema automatizzato. Hanno provato a che i sistemi individuino il “comportamento coordinato non autentico”, quando una persona posta con profili differenti, o il coordinamento tra profili differenti per postare gli stessi contenuti.
Secondo dei documenti interni, la compagnia ha anche provato “retrocessione dei recidivi” che diminuisce l’impatto dei post di utenti che violano le regole frequentemente. Dalle prove fatte in due paesi molto volatili, questa degradazione ha funzionato bene in Etiopia ma male nel Myanmar lasciando perplessi gli ingegneri.
“Non siamo sicuri delle ragioni … ma questa informazione ci dà un punto di inizio per altre analisi e per le ricerche sugli utenti” dice il rapporto.
Facebook non ha dato commenti su ciò, se il problema è stato risolto né sui successi dei due strumenti nel Myanmar.
Sam McNeil e Victoria Milko The Diplomat