Dopo gli allarmismi sull’esperimento in cui due intelligenze artificiali hanno inventato un linguaggio tutto loro i ricercatori del social network rassicurano: «Non abbiamo staccato la spina ma solo cambiato i parametri»
Nelle ricerche sull’Intelligenza Artificiale i ricercatori usano spesso una tecnica chiamata “generative adversarial network”. Il nome scientifico sembra altisonante, ma il meccanismo è relativamente semplice da spiegare: si prendono due agenti, ovvero due Intelligenze Artificiali distinte, e si inizia a farle parlare in contraddittorio per raggiungere un obiettivo predefinito. Un sistema di “negoziazione” linguistica e di “incentivi” e “ricompense”, cioè parametri impostati direttamente dai ricercatori, permette di indirizzare lo sviluppo dell’interazione.
LINGUAGGIO NUOVO
Quello che è successo dopo – a differenza di quanto suggerivano i titoli sensazionalistici dell’ultima settimana – non ha sorpreso nessuno, tantomeno i ricercatori.
“Alice” e “Bob” hanno iniziato a piegare la lingua a proprio beneficio, senza alcuna attenzione delle strutture grammaticali e lessicali, allo scopo di raggiungere l’obiettivo finale nella maniera più veloce possibile.
In altre parole hanno creato un proprio dialetto dell’inglese – simile al linguaggio stenografico – che da un punto di vista puramente computazionale era più efficiente del linguaggio naturale.
Ecco uno stralcio di dialogo tra le due macchine:
Bob: I can i i everything else
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else
Alice: balls have a ball to me to me to me to me to me to me to me to me
Chi si aspettava un linguaggio da libro di fantascienza, zeppo di strani glifi o sequenze di consonanti incomprensibili, sarà rimasto deluso. E non è neppure così difficile capire cosa sia successo: le macchine hanno preso delle particelle fondamentali dell’inglese, come la proposizione “to” e il pronome “me”, e le hanno utilizzate come unità di calcolo per una “negoziazione”. L’obiettivo impostato dai ricercatori, infatti, era quello di dimostrare che due macchine con incentivi differenti possono condurre una transazione per la divisione equa di un insieme di oggetti.
STACCARE LA SPINA
Quando hanno scoperto che i due agenti dialogavano in modo autonomo gli scienziati di Facebook non hanno “spento le macchine”, ma hanno semplicemente alterato i parametri.
In effetti avevano commesso un errore, come spiegano nell’articolo che descrive la ricerca: mancava l’incentivo a mantenere il dialogo entro i limiti delle regole grammaticali dell’inglese.
Dhruv Batra, uno dei ricercatori che ha condotto l’esperimento, ha pubblicato una nota sul proprio profilo Facebook in cui spiega meglio cos’è successo, definendo “irresponsabili” e “sensazionalistici” gli articoli che descrivevano un normale esperimento con il punto di non ritorno verso scenari apocalittici da distopia fantascientifica.
“In parole povere degli agenti che cercano di risolvere un compito in un ambiente trovano spesso metodi controintuitivi per massimizzare la ricompensa”, scrive Batra. “Analizzare le funzioni di ricompensa e cambiare i parametri non equivale a staccare la spina o ‘spegnere le AI’. Se così fosse, ogni ricercatore che si occupa di intelligenza artificiale ‘spegnerebbe le AI’ ogni volta che ferma un’attività su una macchina”.
ESPERIMENTO RIUSCITO
Nella rincorsa al facile sensazionalismo i risultati della ricerca del sono passati in secondo piano. L’esperimento è stato un successo, come spiega il FAIR nello studio:
“Le prestazioni dell’agente di negoziazione, che utilizza il ‘reinforcement learning’ e le successioni di dialoghi, si sono dimostrate equivalenti a quelle di un negoziatore umano; è stato provato che i bots del FAIR non solo possono parlare inglese, ma sanno anche pensare in maniera intelligente a quel che devono dire”.
Insomma, la singolarità è ancora lontana. Non sarà un normale esperimento come quello di Facebook ad innescare la rivolta delle macchine e a farci superare il punto di non ritorno verso una super-intelligenza capace di dominare l’umanità.
Andrea Nepori, La Stampa