Non siamo ai livelli di Minority Report, ma il settore è in evoluzione. E potrebbe presto sbarcare anche in alcune città italiane
Il futuro più inquietante dell’intelligenza artificiale potrebbe scaturire da un pezzetto di cervello di un topo tenuto ex vivo e attaccato a dei micro elettrodi. È studiandone le sue reazioni agli stimoli che infatti gli scienziati del Cnr fiorentino insieme ai colleghi dell’Università di Tel Aviv hanno scoperto che gran parte dell’attività cerebrale è controllata da pochi neuroni organizzati in unità funzionali denominate clique, in grado di categorizzare e generalizzare l’informazione in concetti.
Quel funzionamento è stato poi tradotto in un algoritmo e dato in pasto all’intelligenza artificiale dagli scienziati dell’azienda israeliana Cortica, che hanno così creato un sistema in grado di percepire le intenzioni di un soggetto osservandone micro espressioni e comportamenti. Cortica entrerà in funzione in India grazie a una partnership con il Best Group per analizzare l’enorme flusso di dati delle telecamere a circuito chiuso nelle aree pubbliche. È solo l’ultimo sviluppo della Crime Prediction, che lontana dalle visioni delle precog di Minority Report, è già realtà.
Se trovate questo futuro inquietante dovrete farci l’abitudine. La tecnologia sta infatti muovendo passi da gigante in questa direzione per difendere le future Smart City metropolitane che vedranno riversarsi al loro interno la stragrande maggioranza delle persone, dando vita a scenari più o meno fantascientifici di cui abbiamo già parlato. Le smart city non si dovranno difendere solo dagli attacchi fisici ma anche e soprattutto informatici grazie all’onnipresenza del sistema IoT, al momento ancora un colabrodo in fatto di sicurezza, capace di regalare passatempi ingegnosi ad hacker maliziosi nella migliore delle ipotesi e soluzioni creative a malintenzionati per guadagnarci qualcosa nella peggiore.
Ecco perché al concetto di smart city si affianca sempre più quello di Safe City, con soluzioni di Business intelligence e Predictive analytics indirizzate alla sicurezza pubblica che hanno lo scopo di predire calamità naturali, azioni terroristiche o criminali, incidenti a infrastrutture critiche. Tra le aziende leader del settore c’è la svedese Hexagon Safety & Infrastructure con il suo Intergraph Business Intelligence per la sicurezza pubblica, in grado di monitorare e analizzare un’enorme quantità di dati per prevedere l’evoluzione di uno scenario.
“Non può esistere Smart City senza Safe City”, mi dice Angelo Gazzoni, country manager per l’Italia di Hexagon. “A Hexagon – mi spiega – abbiamo come obiettivo un ecosistema autonomo connesso (Ace), cioè un insieme di sistemi che si connettono in maniera autonoma sfruttando l’intelligenza artificiale e la tecnologia di edge computing che permette di spostare verso la periferia (i sensori) la capacità analitica, convogliando così nell’elaborazione centrale soltanto l’informazione raffinata. Nel caso delle forze dell’ordine ciò consente di portare nel centro decisionale di una sala di gestione delle emergenze informazioni utili per la salvaguardia delle persone, permettendo di agire in anticipo, predire un crimine o una catastrofe”.
Come si può predire un crimine? “ Integrando dati che arrivano dall’esterno, informazioni dei sensori, sentiment analysis, lo storico delle chiamate“, spiega Gazzoni, “è possibile verificare dei trend, quindi intercettare la fase nascente di qualcosa sta accadendo. Con software georiferiti evoluti si vanno a integrare sulla mappa le ricorrenze e le incidenze di episodi già accaduti, ottenendo così indicazioni statistiche su dove un crimine potrebbe di nuovo accadere. Analizzare l’incidenza di un determinato tipo di reato in una specifica zona della città può permettere da un lato di migliorare l’analisi e dall’altro di gestire meglio il presidio di determinate zone. Si possono trovare correlazioni prima impossibili da fare, ad esempio un quartiere in cui si riscontrano molti casi di infrazione stradale potrebbe essere legato a un nascente spaccio di droga. E il sistema centrale permette anche di utilizzare sensori mobili come robot e droni di pattugliamento”.
Un problema che è emerso all’estero, riguardo quest’ultimo caso, è che in determinati contesti si è riscontrato un pregiudizio razziale delle stesse intelligenze artificiali sulle minoranze etniche e quindi anche sui quartieri da loro abitati. Se la cosa può sembrare strana, in realtà non lo è: la conoscenza di un’intelligenza artificiale dipende infatti dai dati assimilati nel machine learning, e questi dati sono selezionati dai programmatori. Prova ne è Norman, la prima intelligenza psicopatica creata dal Mit. Per Gazzoni il software di Hexagon non ha questi problemi: “Dal nostro punto di vista è il dato che determina l’informazione, non è una scelta soggettiva”.
Marco Romandini, Wired.it