Il fisco alza l’asticella dopo segnalazioni su avvisi con motivazioni imprecise: partono verifiche interne, e la parola d’ordine diventa una sola: controllo umano.
Cosa è successo
Il caso nasce da segnalazioni su avvisi di accertamento con riferimenti giuridici non verificabili, citazioni attribuite a pronunce o circolari che, di fatto, non risultavano riscontrabili. La contestazione ha acceso un faro su un rischio concreto: affidare a strumenti di IA generativa la stesura di testi che, per loro natura, richiedono precisione assoluta e motivazioni solidamente documentate.
La risposta dell’Agenzia e le verifiche interne
In un comunicato diffuso il 17 dicembre 2025, l’Agenzia delle Entrate ha confermato l’avvio di accertamenti interni per verificare la fondatezza delle segnalazioni e circoscrivere eventuali responsabilità. L’impostazione dichiarata è netta: se venisse confermato un uso improprio dell’IA, scatterebbero misure disciplinari anche nel caso in cui l’episodio fosse isolato.
Il punto centrale, ribadito con chiarezza, è che i sistemi di IA generativa non dovrebbero essere impiegati per la produzione diretta di atti amministrativi con effetti sui contribuenti. In altre parole: la tecnologia può supportare, ma non sostituire.
Il ruolo dell’UNCAT e la tutela del contribuente
La segnalazione è stata attribuita all’UNCAT (Unione Nazionale Camere degli Avvocati Tributaristi), che ha impostato la questione su un terreno preciso: garanzie difensive, qualità degli atti e rispetto del giusto processo tributario. L’associazione ha chiesto chiarimenti per capire se si tratti di iniziative individuali o di prassi più diffuse, e ha sollecitato attenzione anche al MEF.
Secondo quanto riferito, per ragioni legate al segreto professionale e alle prerogative difensive, non sarebbero stati divulgati dettagli ulteriori sui singoli casi. Ma il messaggio politico-istituzionale è passato: se un atto “sbanda” sulla motivazione, il problema non è soltanto tecnico. È giuridico.
Perché la “motivazione” non è un dettaglio
Un avviso di accertamento vive (e resiste) se poggia su una motivazione chiara, verificabile e coerente. Inserire riferimenti sbagliati o non riscontrabili significa esporre l’atto a contestazioni e, soprattutto, alimentare un clima di incertezza. In un ambito come quello tributario, dove tempi e adempimenti hanno ricadute immediate, l’impatto può essere rilevante: ricorsi, costi, ritardi, e un inevitabile logoramento del rapporto tra fisco e contribuente.
Tecnologia nel fisco: sì, ma con paletti
La vicenda si inserisce in un percorso più ampio: negli ultimi anni l’amministrazione fiscale ha fatto crescere strumenti di analisi e selezione del rischio basati su dati e modelli, utili per individuare anomalie e incrociare informazioni. Ma una cosa è l’analisi dei dati; un’altra è la redazione di un atto che incide sui diritti del cittadino. È qui che serve un confine: supervisione umana, tracciabilità delle fonti, controlli di qualità e formazione specifica.
Non solo IA: stretta anche su dati e comunicazioni fiscali
Nel frattempo, l’attenzione dell’Agenzia si concentra anche sulla correttezza dei flussi informativi che alimentano la dichiarazione precompilata, in particolare l’invio tramite Sistema tessera sanitaria. Per omissioni o errori nella trasmissione dei dati delle spese sanitarie vengono richiamate sanzioni che possono arrivare a 100 euro per documento errato o incompleto, con impatto soprattutto su professionisti e strutture sanitarie obbligate all’invio.
Il filo che unisce i due fronti è lo stesso: affidabilità. Da una parte, atti amministrativi che devono essere inattaccabili sul piano motivazionale; dall’altra, dati che devono arrivare completi e corretti per evitare distorsioni nella precompilata.
Cosa cambia per contribuenti e professionisti
Per i contribuenti il punto è pragmatico: se arriva un atto con motivazioni fragili o riferimenti non verificabili, aumenta la probabilità di contenzioso. Per i professionisti (e per i soggetti obbligati agli invii sanitari) cresce invece la necessità di procedure interne più robuste, perché gli errori “di sistema” possono trasformarsi rapidamente in sanzioni.
Per i funzionari, infine, la linea annunciata è una: l’IA non può essere un “pilota automatico” per la redazione degli atti. Se viene usata, deve essere usata con regole, con limiti e con un controllo umano che non sia solo formale.