Tax News - Supplemento online alla Rivista Trimestrale di Diritto TributarioISSN 2612-5196
G. Giappichelli Editore

18/04/2025 - RELAZIONE: L'evoluzione digitale del sistema tributario

argomento: Attuazione del tributo - Legislazione e prassi

Nel presente contributo saranno formulate alcune considerazioni sul tema dell’Intelligenza Artificiale (AI) nel sistema tributario, evidenziando come tale strumento meriti di essere impiegato solamente ai fini di ausilio nella fase prodromica all’attività decisionale. Quest’ultima, infatti, deve rimanere esclusivamente frutto di un’attività umana. Inoltre, sarà illustrato come sia in ogni caso necessario che i database che saranno impiegati rispondano ai requisiti di completezza, imparzialità e controllabilità.

PAROLE CHIAVE: sistema tributario - evoluzione digitale - intelligenza artificiale - giustizia tributaria


di Loris Tosi

1. Molto opportunamente è stato individuato il tema dell’Intelligenza Artificiale (AI), con le sue molteplici applicazioni ed implicazioni, come filo conduttore di questo Congresso annuale ed argomento di approfondimento.

Con questa nuova realtà, in rapida evoluzione e fino a pochi anni fa inimmaginabile, tutti devono fare i conti, ivi compresi gli operatori del diritto, perché non ci sono dubbi sulle sue potenzialità e sulla capacità dell’AI incidere profondamente sull’attività sia degli avvocati, sia dell’Amministrazione finanziaria, sia dei Giudici.

Sarebbe perciò sconsiderato non coglierne per tempo le opportunità.

Ma sarebbe altrettanto sconsiderato enfatizzarne, se non esaltarne, la funzione in modo acritico e non consapevole.

Io credo che una buona bussola per addentrarsi nella materia sia cercare una risposta alla seguente domanda: noi giuristi di cosa abbiamo bisogno? Quali esigenze dobbiamo soddisfare?

 

2. Fatta questa premessa, vorrei condividere alcune personali considerazioni.

Quando parliamo di AI alludiamo ad un’area vasta del sapere, in costante divenire, sulla quale – almeno nella nostra prospettiva – possiamo affermare con certezza poche cose. E cioè:

  1. che i suoi confini non sono chiari (non a caso, ancora oggi, si è alla ricerca di una precisa definizione concettuale e normativa condivisa di cosa debba intendersi per AI);
  2. che le sue vere (ed ulteriori) potenzialità, in questa fase, sono note solo ad alcuni e non sono partecipate dalla collettività;
  3. che più di uno sono i soggetti (trattasi di soggetti economici di grandissime dimensioni, le cosiddette Big Tech) che sviluppano procedure e contenuti AI, i quali operano in regime di oligopolio;
  4. che il settore manca tuttora di un’adeguata disciplina normativa nazionale e, se non internazionale quantomeno unionale, valevole per tutti (non essendo sufficienti il nuovo Regolamento europeo 2024/1689 del 13.6.2024, c.d. “AI Act”, con le relative linee guida pubblicate recentemente dalla Commissione Europea; e avendo il Senato della Repubblica solo il 20.3.2025 approvato un disegno di legge delega in materia di AI, di iniziativa governativa).

 

3. Se ciò è vero, dovremmo dedurne che, al momento, l’area dell’AI è caratterizzata da un notevole tasso di opacità.

Ed è un’opacità che inficia i fondamenti di tutte le piattaforme oggi disponibili.

In attesa che venga approvata la legge delega di cui al disegno di legge sopra citato, essa riguarda, tra l’altro:

  1. chi le implementa?
  2. chi le alimenta?
  3. chi le educa?
  4. chi le controlla?

Naturalmente, la necessità di dare una risposta a questi interrogativi dovrebbe porsi per chiunque pensi di utilizzare i nuovi strumenti messi a disposizione dall’AI.

Ma vale a maggior ragione per chi, come noi, concorre ad applicare il diritto assumendo in senso ampio delle “decisioni”, siano esse difensionali, amministrative o giudiziali.

Per gli Avvocati, per l’Amministrazione finanziaria e, naturalmente, per i Giudici, non si tratta di ottimizzare un calcolo matematico o di organizzare al meglio un processo produttivo.

Non si tratta nemmeno e soltanto di ricercare e prendere atto dei precedenti, contare quelli a favore e quelli contrari, contrapporne le formali motivazioni e via di seguito.

“Decidere” implica anche e soprattutto operare, in modo indipendente, delle valutazioni. Una molteplicità di valutazioni, non solo giuridiche, ma anche economiche, fattuali, psicologiche, intuitive. Tutte valutazioni, per loro natura, estremamente soggettive e che concorrono, nel loro complesso, a qualificare l’attività di tutti gli operatori giuridici come attività realmente “autonoma”.

 

 

4. Io non so dire se, un giorno, l’AI cosiddetta generativa sarà così evoluta da poter avvalersi di algoritmi simili alle funzioni cerebrali, ma il punto è un altro.

Il punto è che noi pretendiamo che queste valutazioni siano frutto di una attività umana, come detto, autonoma.

Potremmo dirla in questi termini: l’Uomo ha diritto (e, per me, è un diritto naturale o fondamentale) ad essere valutato dall’Uomo e non da un algoritmo, per quanto evoluto e sofisticato. Da questo punto di vista, è apprezzabile la formulazione degli artt. 13, 14 e 15[1] del sopra citato disegno di legge delega recentemente approvato dal Senato.

 

5. Questo convincimento porta, in effetti, con sé almeno cinque corollari:

  1. quando viene assunta una decisione, abbiamo il bisogno di poterla attribuire a “qualcuno” e non a “qualcosa”;
  2. sentiamo, inoltre, la necessità di poterla ritenere “giusta” o “sbagliata”;
  3. conseguentemente, crediamo nell’essenzialità del controllo giudiziario sia sulle decisioni amministrative, sia sulle decisioni giudiziali;
  4. accettiamo e talvolta auspichiamo l’eventualità di un mutamento nell’attuazione del diritto (pensiamo all’esercizio dell’autotutela per l’Amministrazione finanziaria, ovvero ai cambi di giurisprudenza per l’attività dei Giudici);
  5. in ogni caso, chiediamo che qualsiasi atto – che si tratti di un provvedimento amministrativo o di una sentenza – possa essere riconducibile ad un “padre” responsabile.

 

6. Ebbene, un uso spregiudicato dell’AI rischia di confliggere con queste esigenze per la semplice ragione che più l’insieme degli algoritmi è elaborato e capace di “ragionare da sé” sia pure artificialmente, meno si potrà dire che il software ha sbagliato a fornire una determinata soluzione.

E se il software non sbaglia, diciamo così, per definizione, che senso ha parlare di appelli? Che senso ha parlare di autotutela o di mutamenti giurisprudenziali? Che senso ha parlare di responsabilità?

 

7. Mi avvio alla conclusione.

All’inizio dicevo che, per orientarci, dovremmo rispondere al seguente quesito: noi giuristi di cosa abbiamo bisogno? Quali esigenze dobbiamo soddisfare?

Bene, certamente non abbiamo bisogno né sentiamo l’esigenza di essere “sostituiti” da algoritmi o piattaforme digitali varie.

Personalmente, ritengo che questi simili strumenti possano rivelarsi utili solo come strumenti ancillari, di ausilio nella fase prodromica all’attività decisionale che deve rimanere esclusivamente frutto di un’attività umana.

In altri termini: per reperire i precedenti giurisprudenziali, per semplificare le ricerche dottrinali, per completare i riferimenti normativi, e, più in generale, per la “gestione” della pratica.

Anche in questa prospettiva appare condivisibile la formulazione dei predetti artt. 13, 14 e 15 del disegno di legge delega.

Il che non banalizza affatto la problematica perché anche la semplice raccolta e sistemazione delle informazioni, in senso ampio, utili per assumere delle decisioni, deve pur sempre rispondere a canoni certi di trasparenza. Ciò significa che qualsiasi database, per essere affidabile, deve rispondere quantomeno ai seguenti requisiti:

  1. completezza;
  2. imparzialità;
  3. controllabilità.

 

8. Si è detto sopra che lo stato attuale della regolamentazione normativa non è soddisfacente rispetto alla delicatezza del tema.

Naturalmente molto dipenderà da quando e come il disegno di legge delega più volte citato riceverà attuazione.

Al momento, come abbiamo già rilevato, la formulazione delle disposizioni che a noi maggiormente interessano è soddisfacente. Ma naturalmente trattasi di principi generali e criteri direttivi che necessitano di materializzarsi in precetti ben più concreti.

Già al momento, però, vorrei segnalare alcune lacune quale, ad esempio, quella riguardante la governance dell’AI a livello nazionale poiché le costituende AGID-Agenzia per l’Italia Digitale e ACN-Agenzia per la Cybersicurezza Nazionale non sembra siano sufficienti a rispondere alle esigenze che abbiamo noi operatori del diritto.

 

[1] Per completezza di lettura si riporta il testo dei tre articoli.

Art. 13. (Disposizioni in materia di professioni intellettuali)

  1. L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
  2. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

 

Art. 14. (Uso dell’intelligenza artificiale nella pubblica amministrazione)

  1. Le pubbliche amministrazioni utilizzano l’intelligenza artificiale allo scopo di incrementare l’efficienza della propria attività, di ridurre i tempi di definizione dei procedimenti e di aumentare la qualità e la quantità dei servizi erogati ai cittadini e alle imprese, assicurando agli interessati la conoscibilità del suo funzionamento e la tracciabilità del suo utilizzo.
  2. L’utilizzo dell’intelligenza artificiale avviene in funzione strumentale e di supporto all’attività provvedimentale, nel rispetto dell’autonomia e del potere decisionale della persona che resta l’unica responsabile dei provvedimenti e dei procedimenti in cui sia stata utilizzata l’intelligenza artificiale.
  3. Le pubbliche amministrazioni adottano misure tecniche, organizzative e formative finalizzate a garantire un utilizzo dell’intelligenza artificiale responsabile e a sviluppare le capacità trasversali degli utilizzatori.
  4. Le pubbliche amministrazioni provvedono agli adempimenti previsti dal presente articolo con le risorse umane, strumentali e finanziarie disponibili a legislazione vigente.

 

Art. 15. (Impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria)

  1. Nei casi di impiego dei sistemi di intelligenza artificiale nell’attività giudiziaria è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti.
  2. Il Ministero della giustizia disciplinagli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie.
  3. Fino alla compiuta attuazione del regolamento (UE) 2024/1689, la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia, sentitele autorità nazionali di cui all’articolo 20.
  4. Il Ministro della giustizia, nell’elaborazione delle linee programmatiche sulla formazione dei magistrati di cui all’articolo 12, comma 1, lettera a), del decreto legislativo 30 gennaio 2006, n. 26, promuove attività didattiche sul tema dell’intelligenza artificiale e sugli impieghi dei sistemi di intelligenza artificiale nell’attività giudiziaria, finalizzate alla formazione digitale di base e avanzata, all’acquisizione e alla condivisione di competenze digitali, nonché alla sensibilizzazione sui benefici e rischi, anche nel quadro regolatorio di cui ai commi 2 e 3 del presente articolo. Per le medesime finalità di cui al primo periodo, il Ministro cura altresì la formazione del personale amministrativo.