La piattaforma di Google è strapiena di video complottisti e di bufale, ma adesso prova a correre ai ripari (anche con l’aiuto di Wikipedia)
L’ultimo video cospirazionista e virale di YouTube è comparso pochi giorni dopo la strage in Florida che, il 14 febbraio scorso, ha causato la morte di 17 persone. Nel filmato, uno dei sopravvissuti alla strage, David Hogg, veniva accusato di essere un attore (portando le “prove” di alcune sue precedenti apparizioni televisive) pagato dai soliti poteri forti che – secondo i cospirazionisti – potrebbero aver inscenato la sparatoria nella scuola di Parkland. Non è una novità: dopo ogni singola strage o attentato (compreso quello di Las Vegas) si diffondono teorie che cercano di dimostrare come il tutto sia stato costruito ad arte per oscure ragioni. Teorie che circolano sotto forma di articoli – andando poi ad alimentare il dibattito sulle fake news – ma che diventano ancor più virali su YouTube, dove il video che accusava Hogg di essere un attore è stato il più visto in assoluto nella giornata del 21 febbraio (prima di venire rimosso). Ma perché questi contenuti hanno una tale diffusione sulla piattaforma streaming di proprietà di Google? Da una parte, è innegabile che si tratti di video che possono suscitare la curiosità anche di chi non gli conferisce nessuna veridicità. Dall’altra, però, è il meccanismo stesso di YouTube a promuovere, attraverso l’algoritmo che seleziona i video correlati, i contenuti più radicali presenti sul sito; dando enorme visibilità proprio alla miriade di filmati complottisti che popolano la piattaforma. Lo ha recentemente spiegato sul New York Times la giornalista Zeynep Tufecki; che ha mostrato come partendo da video “neutri” – per esempio un discorso di Donald Trump – si approda attraverso i correlati (trasmessi in automatico se l’autoplay è attivo) a video negazionisti dell’Olocausto, sfoghi deliranti di suprematisti bianchi e altro ancora. Non è un meccanismo che riguarda solo l’estrema destra: partendo da un video di Hillary Clinton, Tufecki è arrivata rapidamente alle teorie del complotto che trovano supporto anche nell’estrema sinistra (per esempio, quella sulle Torri Gemelle). “Sembra che l’algoritmo delle raccomandazioni di YouTube non ti consideri mai abbastanza radicale”, scrive Tufecki. “L’algoritmo promuove, raccomanda e diffonde video in una maniera che sembra avere lo scopo di alzare sempre di più la posta in gioco”. Con un meccanismo nel genere, non c’è da stupirsi che i video complottisti – su scie chimiche, attentati inscenati, falso allunaggio, Terra piatta, Illuminati e chi più ne ha più ne metta – raggiungano spesso e volentieri svariati milioni di visualizzazioni; con il rischio, ovviamente, di essere ritenute teorie affidabili dai più giovani o meno consapevoli. In un momento in cui l’attenzione sulle fake news è ai massimi storici, era inevitabile che anche YouTube (dopo lo scandalo sugli inappropriati, per usare un eufemismo, video per bambini) finisse nell’occhio del ciclone. E così, la piattaforma di streaming ha deciso di correre ai ripari: la CEO Susan Wojcicki ha annunciato, durante il South by Southwest Interactive Festival di Austin, che sotto i video che supportano le più popolari teorie cospirazioniste compariranno, nelle prossime due settimane, dei box contenenti link a Wikipedia per offrire “un punto di vista alternativo sul tema”. Nonostante Wikipedia sia a sua volta un luogo popolato da numerose teorie del complotto, con un po’ di attenzione sarà possibile offrire materiale caratterizzato da una maggiore obiettività (anche la pagina dedicata alla “teoria del complotto lunare”, per esempio, riporta tutte le obiezioni di scienziati ed esperti). Allo stesso tempo, però, non sempre è disponibile una pagina di Wikipedia in grado di fornire un punto di vista diverso (e chissà in quanti decideranno di sfruttare i link per documentarsi ulteriormente). Non è invece chiaro se YouTube sia intenzionato a modificare il proprio algoritmo per evitare che i video correlati conducano con tale facilità alla visione di contenuti radicali o cospirazionisti. Ma visto l’enorme successo che conquistano, è difficile che la piattaforma di Google decida di usare davvero le maniere forti.
di Andrea Daniele Signorelli, La Stampa