Occhio: l’intelligenza artificiale non sarà solo al servizio dei buoni

Hand pointing at glowing digital brain. Artificial intelligence and future concept. 3D Rendering
Share

Una ricerca inglese ha cercato di prevedere i modi in cui l’intelligenza artificiale, in futuro, potrebbe mettersi al servizio dei criminali.

Questa immagine ha l'attributo alt vuoto; il nome del file è Intelligenza-artificiale-1.jpg

A fare affidamento sulle applicazioni di intelligenza artificiale non sono più soltanto i “buoni” – come per esempio i poliziotti a caccia di terroristi o comunque di ricercati in genere: ora anche i “cattivi” contano sempre più spesso su queste nuove tecnologie per perseguire i loro obiettivi. Uno studio recente dello University College di Londra identifica e classifica tutti gli ambiti nei quali l’AI potrà collaborare con i criminali nei prossimi 15 anni.

FUTURO PERICOLOSO. La ricerca, pur disegnando scenari dai contorni vagamente hollywoodiani, è stata pubblicata sull’autorevole Crime Science Journal. Lo studio è stato condotto coinvolgendo diversi esperti tra cui criminologi, investigatori, legali, ufficiali di polizia, manager d’azienda. A questi è stato chiesto di classificare vari tipi di reato perpetrabili con l’aiuto dell’AI in base a vari parametr come il danno provocato, il profitto ottenuto, la reale fattibilità e la possibilità di difesa. 

I crimini analizzati vanno dalla classica contraffazione del denaro fino a reati più moderni e tecnologici, come l’impiego di veicoli senza conducente in modalità… autobomba.

OCCHIO AL VIDEO. Lo studio ha individuato 18 tipi diversi di reato e ne emerso che il più pericoloso di tutti, ma anche quello probabilmente più frequente nei prossimi anni, sarà la creazione di deepfake video:  l’intelligenza artificiale verrà cioè impiegata dalle organizzazioni criminali per confezionare falsi video da pubblicare online per diffondere i messaggi destabilizzanti. Potranno essere cioè utilizzati per diffondere fake news, pilotare intenzioni di voto, destabilizzare governi.

SIAMO TUTTI CREDULONI. «Gli esseri umani hanno una forte tendenza a credere ai loro occhi e alle loro orecchie, e quindi i video falsi possono ingannare con grande facilità», spiegano gli autori dello studio. Il livello di pericolosità di questo crimine è risultato più alto anche rispetto all’utilizzo di droni o robot militari o al ricatto digitale.

I sistemi di intelligenza artificiale, infatti, sono già stati ampiamente utilizzati per creare dal nulla video pornografici di inconsapevoli personaggi famosi, e si stanno lentamente infiltrando anche nel mondo della politica. Governanti e leader di partito possono loro malgrado diventare protagonisti di video dove fanno e dicono qualunque cosa possa essere utile a chi li vuole danneggiare o vuole destabilizzare il loro sistema politico. E la tecnologia oggi è così evoluta da creare video falsi praticamente indistinguibili.

ARMI SPUNTATE. L’unica difesa, secondo i ricercatori, è quella di aiutare le persone a sviluppare il senso critico e spingerle a dubitare sempre di ciò che vedono online.

In un’epoca dove tutto cambia a grande velocità, sia in senso positivo che negativo, riuscire ad anticipare il futuro del crimine può aiutare governanti e altri attori ad acquisire le competenze necessarie ad affrontare una nuova versione del tradizionale gioco di guardie e ladri.


Focus.it

Share
Share