Affermazioni e teorie complottiste e post volti alla disinformazione sono 2,3 volte più comuni nei gruppi Facebook caratterizzati da condivisione automatica dei contenuti rispetto alle conversazioni normali. A suggerirlo uno studio, pubblicato sul Journal of American Medical Association Internal Medicine, condotto dagli scienziati dell’Università della California a San Diego, che hanno analizzato i post su gruppi Facebook generati da account contraffatti, o bot. Il team, guidato da John W. Ayers, ha considerato i software utilizzati per condividere ricerche originali e allo stesso tempo minare la genuinità della comunicazione scientifica. Gli autori hanno esaminato i gruppi pubblici di Facebook, noti per essere suscettibili alla comunicazione automatizzata, in cui si faceva riferimento allo studio DANMASK-19, il quinto articolo più condiviso di sempre fino a marzo 2021, nel quale si evidenzia l’importanza dell’uso delle mascherine facciali come misura di prevenzione contro la diffusione di Covid-19. I ricercatori hanno analizzato 563 post di Facebook con link alla pubblicazione originale, edita dalla rivista Annals of Internal Medicine, valutando solo i messaggi nei cinque giorni successivi alla pubblicazione dell’articolo, dal 18 al 22 novembre 2020. “Quando vengono pubblicati contenuti identici in momenti molto ravvicinati – scrivono gli autori – potrebbe essere stato utilizzato un software automatizzato. Abbiamo calcolato la frequenza di post con queste caratteristiche e individuato quelli in cui la conclusione dello studio DANMASK-19 era stata male interpretata, e quelli in cui la ricerca veniva additata da teorie complottiste”. Nel primo gruppo rientravano ad esempio i post in cui si affermava che indossare le mascherine può nuocere a chi le utilizza, nel secondo quelli che additavano le indagini scientifiche di subire il controllo da parte di organismi o decisori politici. Stando ai risultati del gruppo di ricerca, il 19,8 per cento dei post pubblicati nei gruppi caratterizzati da automatizzazione rientravano nella prima categoria, il 50,8 per cento nella seconda. Al contrario, riportano gli scienziati, nei gruppi meno colpiti dall’automazione, l’8,5 per cento mostrava risultati alterati dello studio e il 20,3 per cento portava a teorie cospirazioniste. Tra i limiti dello studio, gli esperti riconoscono l’impossibilità di risalire agli utenti che organizzavano la condivisione automatica e l’analisi dei soli gruppi pubblici di Facebook. “Uno dei possibili approcci volti a prevenire la disinformazione dovuta alla condivisione automatica dei contenuti – concludono i ricercatori – potrebbe riguardare l’introduzione di una legislazione che penalizzi tale tipologia di pubblicazione. Una maggiore regolamentazione nei social media e delle campagne di informazione organizzate da esperti potrebbero aiutare gli utenti a orientarsi nella vastità di informazioni disponibili sulle piattaforme social”.