Ci siamo, l’intelligenza artificiale entra a pieno titolo tra gli strumenti operativi dell’Agenzia delle entrate e, tra poco, se ne accorgeranno anche i contribuenti. Lo scopo principale, enunciato ufficialmente dall’Agenzia delle entrate con un documento di un centinaio di pagine reso pubblico il 19 maggio, è quello di accelerare l’attività di selezione delle posizioni da sottoporre ad accertamento, o destinatarie di semplici avvisi bonari, per chiedere conto di incongruenze e discrepanze tra i dati ufficialmente dichiarati e quelli presenti nelle banche dati del fisco.
Svelando come saranno condotte le analisi del rischio, l’Agenzia delle entrate si premura di precisare che “l’applicazione delle metodologie in parola non determina in alcun modo la profilazione dell’intera popolazione dei contribuenti. L’utilizzo dei dati dell’Archivio, infatti, eventualmente interconnesso con altre banche dati nella disponibilità dell’Agenzia delle entrate, è volto unicamente alla selezione di un numero circoscritto di soggetti, caratterizzati da un apprezzabile livello di rischio fiscale”. Niente automatismi, perché il procedimento di selezione sarà sempre sotto il controllo dei funzionari dell’Agenzia.
Ma la realtà è un po’ diversa. Che le banche dati utilizzate dall’Agenzia delle entrate contengano numerosi errori, lacune, incompletezze è un fatto risaputo da tutti coloro che con il fisco hanno avuto a che fare. Algoritmi che lavorano su dati errati non possono che produrre accertamenti o avvisi bonari privi di fondamento. Non a caso più volte il Garante privacy ha messo in guardia dai rischi che procedure automatizzate conducano ad atti che contengono false rappresentazioni delle capacità contributive di cittadini e imprese.
Il problema è che il contribuente rimarrà all’oscuro fino alla fine del processo che si sta svolgendo alle sue spalle. Solo quando gli arriverà il controllo o l’avviso di rettifica potrà chiedere di avere accesso ai dati che sono stati utilizzati per la produzione dell’atto che gli è stato recapitato. Cosa tutt’altro che semplice e veloce. È vero infatti che in teoria potrebbe avvalersi di numerosi strumenti a propria difesa, come l’istanza di autotutela, l’apertura di un contenzioso ecc. ma in ogni caso l’onere della prova si è già ribaltato su di lui e difendersi contro gli algoritmi dell’Agenzia delle entrate, senza la conoscenza di dettaglio dei dati utilizzati per la produzione dell’atto, è come lottare con un braccio legato dietro la schiena.
L’impressione, ma speriamo di essere smentiti dai fatti, è che ci sia ancora tanta strada da fare per evitare una semplice pesca a strascico. Non tanto con i controlli, ma con gli avvisi bonari, molto più semplici da gestire per l’Agenzia delle Entrate. Di fatto il fisco mantiene una posizione di privilegio nei confronti del contribuente: nessuno infatti saprà mai come funziona di preciso l’algoritmo che viene utilizzato, se contiene, per esempio, errori marchiani (come capita anche ai migliori algoritmi) o falle che emergono solo nel corso degli anni. Anche perché le categorie professionali, che avrebbero potuto dare un contributo importante nella fase di test, non sono state per nulla coinvolte. E il Garante, che ha fatto diverse battaglie sulla tutela della privacy nell’utilizzo dei dati tributari, più di tanto non può fare.
La digitalizzazione dell’attività di accertamento, anche con l’impiego dell’IA, è infatti un processo previsto dal Pnrr, quindi in qualche modo vincolato anche per l’Agenzia delle entrate, che potrebbe avere difficoltà a fermarsi anche nel caso dovessero emergere problematiche serie: per non perdere i soldi del Pnrr bisogna andare avanti come un Caterpillar. Ai problemi dei contribuenti ci si penserà. Dopo.
Marino Longoni, ItaliaOggi Sette