Facebook: con Covid impatto su controllo contenuti sensibili

Share

“Con più revisori a casa, ci siamo affidati a nostra tecnologia”

Questa immagine ha l'attributo alt vuoto; il nome del file è Facebook.jpg

Il coronavirus ha impattato sul controllo dei contenuti sensibili su Facebook, che per rivederli ha dovuto dare priorità alla tecnologia piuttosto che ai revisori in carne ed ossa. E’ quanto emerge dalla sesta edizione del Report sull’applicazione degli Standard della Comunità che trimestralmente fornisce dati su come il social ha applicato le sue policy in ambiti come il linguaggio d’odio o il cyberbullismo, nel caso specifico da aprile a giugno 2020, sia su Facebook sia su Instagram.

“A causa del Covid-19 a marzo abbiamo mandato a casa i nostri revisori di contenuti per proteggere la loro salute e garantire la loro sicurezza e ci siamo dovuti affidare maggiormente alla nostra tecnologia per poter rivedere i contenuti”, spiega la società di Mark Zuckerberg che proprio pochi giorni fa ha esteso per i dipendenti che lo vorranno lo smart working fino a luglio 2021.

Il report di oggi mostra, ad esempio, come i contenuti di incitamento all’odio siano considerevolmente aumentati su Facebook da 9,6 milioni nel primo trimestre 2020 a 22,5 nel secondo trimestre; su Instagram da 808.900 nel primo trimestre a 3,3 milioni nel secondo trimestre 2020. Con il rilevamento proattivo, cioè con la tecnologia di Intelligenza artificiale, “per Facebook nel 94,5% dei casi si è agito su questi contenuti prima ancora che venissero segnalati, per Instagram invece nell’84.2% dei casi. Nonostante l’impatto del Covid – aggiunge la società – i progressi fatti dalla nostra tecnologia ci hanno permesso di intervenire su un maggior numero di contenuti in alcune aree e di aumentare il nostro tasso di rilevamento proattivo in altre”.

Un’area in cui la piattaforma ha visto miglioramenti legati alla revisione con la tecnologia è stata quella dei contenuti terroristici (quelli su cui ha agito è aumentata da 6,3 milioni nel primo trimestre a 8,7 milioni nel secondo). Mentre il minor numero di revisori ha impattato le azioni per contenuti come suicidio e autolesionismo, immagini di sfruttamento minorile, contenuti violenti e grafici su Facebook, che il social preferisce affidare a revisori in carne ed ossa.


ANSA

Share
Share