Il New York Times è entrato in possesso di un documento in cui viene elencato cosa può e non può trovare spazio sulla piattaforma. Linee guida che devono poi essere seguite, tra le varie difficoltà, dai moderatori di tutto il mondo
Se ci si chiede come faccia Facebook a scegliere quali contenuti possono essere mantenuti sulla piattaforma o meno la risposta è semplice: lo decidono qualche decina di persone in una riunione che si tiene ogni martedì mattina a Menlo Park. A rivelarlo è il New York Times che è entrato in possesso di un enorme documento in cui sono raccolti PowerPoint e fogli Excel in cui rientrano le regole generali che vengono poi girate ai moderatori sparsi in tutto il mondo. Il quadro che emerge è però quello di un processo un po’ confusionario, superficiale e che a volte porta anche a risultati apparentemente paradossali. Come nel caso in cui una raccolta fondi dopo il recente terremoto in Indonesia era stata rimossa perché un gruppo promotore apparteneva a una delle liste di associazioni censurate dal social. Analizzando uno scambio di mail il quotidiano è anche venuto a sapere che Facebook ha dato il via libera a post che inneggiavano ai talebani afghani, cosa prima proibita sul social, nel caso fosse riportato anche la loro decisione di arrivare a un cessate il fuoco. Altre circostanze particolari hanno invece interessato paesi come Pakistan e Myanmar.
Poca precisione
I documenti sono però poco accurati e non è raro che ci siano anche delle sviste, come la slide che descrive il comandante serbo bosniaco Ratko Mladic come ancora in fuga, mentre è stato arrestato nel 2011. Altro discorso riguarda invece la questione linguistica: le slide e le tabelle sono scritte per persone che parlano inglese e utilizzano poi Google Translate nei singoli paesi. Un elemento che aggiunge ancora maggior imprecisione al lavoro. Interessante è poi il foglio Excel all’interno di cui sono elencate tutte le organizzazioni che non dovrebbero trovare spazio su Facebook, tra cui ne figurano molte di estrema destra. Anche qui, come fanno notare alcuni esperti, l’elenco è però lacunoso visto che si concentra molto su Stati Uniti e Regno Unito e meno su altri paesi come quelli dell’Est Europa.
Il problema dei moderatori
A tutto questo si aggiunge il fatto che le linee guida, a volte poco chiare, devono essere adottate da moderatori che hanno poche decine di secondi per stabilire se un contenuto sia o meno lecito sulla piattaforma. Un lavoro troppo stressante per queste persone, tanto che spesso lo abbandonano dopo pochi mesi. Ma delle difficili condizioni in cui operano i moderatori di Facebook se ne parla ormai da più di un anno con inchieste che avevano scoperchiato i dettagli di questo mondo. E nello scorso autunno una ex moderatrice aveva anche fatto causa al social proprio perché le era stata diagnosticata una sindrome post traumatica da stress in seguito ai mesi di lavoro.
Enrico Forzinetti, Corriere della Sera