Will Knight riferisce che il programma può creare resoconti di notizie apparentemente realistici su qualsiasi argomento gli venga fornito, ed è “preoccupante” per come e quanto “riesca ad ingannarci” facendo sembrare vera una ‘fake news’. L’algoritmo, scrive Knight, è “così convincente che i ricercatori hanno scelto di non rendere open source il codice”, ovvero di non diffonderlo per la preoccupazione che il sistema possa finire nelle mani sbagliate ed essere usato “in maniera impropria”.
La preoccupazione, continua Knight, è che questo sistema di Intelligenza Artificiale possa essere utilizzato per produrre in massa notizie false. Del resto, lo stesso Jack Clark, direttore delle politiche di OpenAI, ha spiegato sul MIt Technology Review che “se questa tecnologia diventa matura – ed io lo ritengo possibile in uno o due anni – potrebbe essere usata per disinformazione o propaganda”.
“Abbiamo iniziato a testarlo e abbiamo scoperto rapidamente che è possibile generare contenuti maliziosi abbastanza facilmente” ha affermato Clark. In un Tweet, Will Knight mostra anche una “breve storia” generata dal sistema di Intelligenza Artificiale di OpenAI GPT-2.
Adnkronos