Stop all’Intelligenza Artificiale (I.A.) per l’attribuzione di un punteggio alle persone e per l’identificazione biometrica indiscriminata; a tutti il diritto di sapere se un testo o un’immagine sono prodotti da una I.A.; agli interessati il diritto a presentare reclami contro decisioni elaborate con un I.A.; alle pmi agevolazioni per progettare sistemi di I.A. senza dipendere dai colossi del web.
Sono queste alcune delle regole relative all’uso dell’intelligenza artificiale contenute nello schema di regolamento Ue, che ha fatto un decisivo passo avanti verso la sua approvazione. Parlamento e Consiglio europei hanno, infatti, raggiunto l’8 dicembre 2023 un accordo provvisorio sulla legge europea sull’intelligenza artificiale, caratterizzata da un approccio a più livelli di rischio (da quello minimo a quelli più alti), con differenti blocchi di adempimenti. Nello schema di regolamento trova posto anche un sistema sanzionatorio delle violazioni posizionato su cifre milionarie. Il testo concordato dovrà ora essere formalmente adottato sia dal Parlamento che dal Ue.
Divieti
Non si potrà usare l’I.A. per sistemi di categorizzazione e profilazione biometrica che utilizzano dati e informazioni sensibili (ad esempio convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza) e neppure per la raccolta massiva (web scraping) di immagini dei volti delle persone da Internet e da filmati di videosorveglianza al fine di alimentare un archivio digitale utile al riconoscimento facciale. Sono messi al bando anche le I.A. per il riconoscimento delle emozioni delle persone nei luoghi di lavoro e nelle istituzioni educative, per l’attribuzione di un punteggio al comportamento delle persone nelle relazioni sociali o basato sulle caratteristiche personali, quelle con effetti manipolativi del comportamento umano e della capacità di esprimere scelte libere (ad esempio giocatoli robot) e, infine, quelle capaci di sfruttare debolezze e vulnerabilità delle persone (a causa dell’età, disabilità, situazione sociale o economica).
Sicurezza
Nello schema di regolamento sono inserire alcune eccezioni ai divieti e ciò per scopi di giustizia e sicurezza sociale.
Si potrà usare limitatamente l’I.A. per l’identificazione biometrica (RBI) in luoghi aperti al pubblico, ma sono previste alcune garanzie: lo si potrà fare solo per i reati più gravi e solo previa autorizzazione del giudice.
Inoltre, i sistemi di riconoscimento biometrico, usati non in tempo reale, saranno utilizzabili esclusivamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave.
Il riconoscimento biometrico in tempo reale con strumenti di I.A. potrà essere usato allo scopo di: rintraccio di vittime (rapimento, tratta, sfruttamento sessuale); prevenzione di una minaccia terroristica concreta e attuale, localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati elencati dallo stesso regolamento sull’I.A. (tra cui terrorismo, tratta di esseri umani, sfruttamento sessuale, omicidio, sequestro di persona, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).
Alto rischio. Lo schema di regolamento individua i settori in cui i sistemi di I.A. sono ad alto rischio e cioè quelli in cui possono essere causati danni significativi per le persone (salute, sicurezza, diritti fondamentali), per l’energia e ambiente e per l’organizzazione sociale (istituzioni democratiche, giustizia, controllo frontiere).
Anche i sistemi di I.A. utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio.
Chi intenderà adoperare l’I.A. in questi settori dovrà elaborare una valutazione d’impatto sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario, e prevedere forme di supervisione umana.
Rischi sistemici
Viene individuata la categoria astratta dei sistemi di intelligenza artificiale generici, assoggettati a requisiti di trasparenza, tra i quali l’obbligo di redigere apposita documentazione tecnica, il rispetto della legge dell’Unione europea sul diritto d’autore e la diffusione di sintesi dettagliate sui contenuti utilizzati per l’addestramento dell’I.A..
Per questi modelli, se catalogati a rischio sistemico, si prevede, una serie di rigorose precauzioni: valutazione di impatto e dell’efficienza energetica, severa mitigazione del rischio e adeguate misure di cybersicurezza, notificazione di incidenti gravi alla Commissione Ue.
Per la gestione di questi rischi globali verrà inoltre istituito, in seno alla Commissione Ue, l’Ufficio europeo per l’I.A..
Trasparenza. Lo schema prevede specifici obblighi di trasparenza: quando si utilizzano sistemi di intelligenza artificiale come le chatbot, gli utenti devono essere consapevoli di interagire con una macchina. Tutti i contenuti generati dall’intelligenza artificiale dovranno essere etichettati e riconoscibili e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare i sistemi in modo che i contenuti sintetici audio, video, testo e immagini siano contrassegnati in un formato leggibile dalla macchina e rilevabili come generati o manipolati artificialmente.
Pmi
L’accordo politico raggiunto l’8 dicembre 2023 prevede soluzioni per le piccole e media imprese, per permettere loro di non essere dipendenti dei giganti del settore e poter sviluppare in proprio sistemi di IA, con l’assistenza delle autorità nazionali.
Antonio Ciccia Messina, ItaliaOggi