Facebook: via 8,7 milioni di foto pedopornografiche

Share

Nuovo sistema usa intelligenza artificiale per setacciare social

Facebook continua la difficile lotta all’individuazione dei contenuti sensibili. Nell’ultimo trimestre, da luglio a settembre, la piattaforma ha rimosso 8,7 milioni di immagini pedopornografiche, contenenti nudi o sfruttamento sessuale di minori. Lo ha reso noto il social network, spiegando di aver usato intelligenza artificiale e apprendimento automatico per scandagliare la piattaforma in cerca dei contenuti da eliminare.

Insieme alla tecnologia per l’abbinamento di foto, che impedisce di condividere immagini pedopornografiche già note, Facebook nell’ultimo anno ha sviluppato un sistema che usa l’AI e il machine learning per identificare nudità e sfruttamento minorili non appena vengono pubblicati sul social.

I contenuti – si legge in un post di Antigone Davis, responsabile sicurezza di Facebook – sono quindi segnalati a organizzazioni e enti preposti, come il Centro nazionale americano per i bambini scomparsi o sfruttati (Ncmec), che a sua volta collabora con le forze dell’ordine.

Contestualmente, Facebook ha reso nota l’esistenza di una tecnologia simile volto a bloccare l’adescamento online di minori, rimuovendo gli account che hanno interazioni potenzialmente inappropriate coi bambini.

Con oltre due miliardi di utenti e migliaia di post condivisi ogni minuto, è arduo lo sforzo del social network di controllare i contenuti pornografici e scorretti. Lo stesso Zuckerberg ha ammesso che non è facile e che nel 2018 si sarebbe impegnato di più.

Circa due anni fa, un’inchiesta del Guardian si concentrò sulle regole interne di Facebook per la moderazione di argomenti sensibili, dal terrorismo alla pornografia. Rivelando che spesso il social era incapace di mantenere il controllo sul suo contenuto, poichè “cresciuto troppo, troppo in fretta”, tanto che “spesso” i suoi moderatori – persone in carne e ossa, non algoritmi – hanno “appena 10 secondi” per fare una scelta.

Ansa

Share
Share