La magistratura alla prova dell’intelligenza artificiale

Riflessioni a margine del seminario “Giustizia e nuove tecnologie”

(organizzato da Magistratura democratica e Questione Giustizia, Roma, 8 novembre 2025)

L’avvento dell’intelligenza artificiale, e in particolare di quella generativa, segna un momento di rivoluzione dei rapporti sociali tra individui e tra poteri ed individui al pari di quello che in passato hanno fatto il motore, l’energia elettrica, la radio, il computer e, poi, Internet.

Se la Rete ha consentito la globalizzazione delle relazioni riducendo gli ostacoli fisici rappresentati dallo spazio e dal tempo, l’intelligenza artificiale, aumentando la capacità di lettura dei nessi logici, permette di ridurre i limiti naturali della mente umana ed è in grado di proporre non solo soluzioni immediate, ma addirittura soluzioni nuove.

Questo sviluppo sta coinvolgendo le tecniche militari, la sanità, la produzione di beni e servizi, il mercato, la ricerca scientifica, le professioni liberali, l’arte, lo sport, la pubblica amministrazione e, quindi, anche la giustizia.

E’ un cambiamento antropologico profondo che mette in discussione la stessa idea antropocentrica del mondo laddove, come l’energia atomica, aumenta la disponibilità di potenza e riduce la percezione della possibilità del suo controllo.

L’amministrazione della giustizia e l’esercizio della giustizia implicano il rispetto e l’effettività dei diritti e sono connaturate ai principi di autonomia e indipendenza del giudice. Per questo, come operatori della giustizia, non possiamo né sottrarci all’intelligenza artificiale demonizzandola, né abusare delle nuove opportunità che offre per il raggiungimento di standard di rendimento ed efficienza che si pongano in contrasto con quei principi.

Il regolamento sull’intelligenza artificiale (AI Act) adottato dall’UE nel 2024, la cui entrata in vigore, già prevista per il 2 agosto del 2026, è stata rinviata sine die, inserisce tra i sistemi ad alto rischio i sistemi di IA destinati ad assistere il magistrato nella ricerca e nella interpretazione dei fatti e del diritto e nell’applicazione della legge al caso concreto e i sistemi di IA destinati ad essere utilizzati per valutare l’affidabilità degli elementi probatori nel corso delle indagini o del perseguimento dei reati, o per determinare il rischio di recidiva. Per tali sistemi sono richiesti una serie di requisiti a garanzia della trasparenza e della affidabilità dei dati utilizzati e dell’architettura dell’algoritmo.

Non rientrano invece in questa categoria, e non richiedono quindi le stesse garanzie, i sistemi di IA destinati a operare su attività strettamente esecutive, su attività di miglioramento di un’attività umana già completata, sulla stretta attività di rilevamento dati, su attività preparatorie di una successiva valutazione umana.

L’art. 15 della legge n. 132 del 23 settembre 2025 (Disposizioni e deleghe al governo in materia di intelligenza artificiale) riserva al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti. Ma riserva al Ministero della Giustizia la disciplina degli impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, la semplificazione del lavoro giudiziario, le attività amministrative accessorie. Al Ministero della Giustizia è altresì riservata la formazione di magistrati e personale amministrativo.

Fino all’entrata in vigore dell’AI Act la sperimentazione e l’impiego dei sistemi di intelligenza artificiale negli uffici giudiziari ordinari sono autorizzati dal Ministero della giustizia sentite l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la cybersicurezza nazionale (ACN).

Il CSM, con delibera dell’8 ottobre 2025 ha adottato le Raccomandazioni sull’uso dell’intelligenza artificiale nell’amministrazione della giustizia rilevando che:

  1. possono rientrare tra gli impieghi ammissibili dell’IA – purché in modalità tracciata, sicura e con revisione umana e nell’ambito degli applicativi forniti all’interno del dominio giustizia: 1) ricerche dottrinali; 2) sintesi di provvedimenti ostensibili e contributi dottrinali; 3) organizzazione del lavoro giudiziario: supporto nella redazione di report statistici sull’andamento dell’ufficio; analisi di conformità tra programmi di gestione e dati di registro; comparazione automatizzata di documenti; redazione di bozze di relazioni o pareri su incarichi direttivi e semidirettivi; gestione dei calendari d’udienza sulla base di carichi e scadenze; 4) supporto agli uffici c.d. “affari semplici”: ausilio nelle attività seriali e a bassa complessità giuridica; 5) supporto ad attività giurisdizionali gestionali attraverso il controllo della documentazione; 6) confronto tra soluzioni tecniche per la gestione fascicoli; 7) generazione automatica di presentazioni; 8) produzione di tabelle e grafici; 9) revisione linguistica e stilistica di testi; 10) catalogazione e archiviazione per materia dei quesiti ai CTU; 11) predisposizione di calendari d’udienza; 12) traduzione assistita.
  2. per le ricerche sulle banche dati giurisprudenziali laddove i sistemi siano progettati per selezionare automaticamente la giurisprudenza “più rilevante”, per suggerire orientamenti interpretativi prevalenti o per generare schemi motivazionali basati su pattern ricorrenti, si configura un impiego che incide potenzialmente sull’attività valutativa e sull’indirizzo giuridico. Occorre quindi vigilare sulla natura e l’architettura dei sistemi utilizzati, sulla trasparenza degli algoritmi di selezione e classificazione e garantire il ruolo attivo e critico del magistrato nel vaglio dei risultati, sulla qualità, neutralità e accessibilità della banca dati.
  3. deve essere escluso l’utilizzo non autorizzato di sistemi di IA nell’attività giudiziaria in senso stretto; resta però ferma la possibilità di sviluppare, in ambiente protetto e sperimentale sotto la supervisione congiunta del Ministero e del CSM, applicazioni anche in ambiti giudiziari, purché previa anonimizzazione e tracciabilità dei dati.
  4. devono essere garantite: la sovranità dei dati e delle informazioni; la protezione dei dati; la qualità dei dati; la supervisione; la responsabilità individuale.

Il CSM opererà al fine di rendere i magistrati consapevoli delle potenzialità e dei limiti dei sistemi di IA; tutelare il tempo della decisione; riaffermare la centralità dell’esperienza processuale. Le sue modalità di intervento si tradurranno: a) nella costituzione di tavoli tecnici con il Ministero; b) nella creazione di un gruppo tecnico multidisciplinare permanente con l’incarico di svolgere attività di valutazione e controllo dei sistemi utilizzati; c) nella collaborazione con Ministero nell’adozione di un piano strategico per l’introduzione e la gestione dei sistemi di intelligenza artificiale nell’ambito della giustizia.

L’intera filiera delle fonti normative che regola l’utilizzo dell’IA mira a garantire la riserva di umanità nell’uso dell’intelligenza artificiale nell’amministrazione della giustizia, preservando lo spazio dell’interpretazione del diritto e dell’applicazione della legge al caso concreto, oltre che della valutazione delle prove.

Occorre, tuttavia, rilevare che se queste attività appaiono formalmente sottratte all’utilizzo dell’intelligenza artificiale, non può dirsi esclusa la possibilità che le medesime attività siano indirettamente influenzate dagli effetti del suo utilizzo nelle fasi che precedono la valutazione e la decisione umana.

E’, infatti, evidente che l’attività giuridica in senso stretto può essere condizionata:

  1. dall’attività di selezione delle informazioni che vengono utilizzate dal magistrato;
  2. dalla spinta a soddisfare la richiesta di efficienza del sistema giustizia attraverso la riduzione dei tempi di decisione e la riduzione dell’arretrato;
  3. dalla capacità del magistrato di saper leggere e gestire i dati elaborati e quindi dalla formazione che ha ricevuto;
  4. dalla qualità degli applicativi ministeriali;
  5. dalla rigidità della struttura dell’attività di creazione del provvedimento digitale imposta dagli applicativi ministeriali, che riflessi sia sul tempo di adozione che sull’organizzazione degli uffici (in specie delle Procure)

L’art. 110 della Costituzione riserva al Ministero della Giustizia l’organizzazione e il funzionamento dei servizi relativi alla giustizia e con evidente richiamo a tale norma la legge sull’IA e le stesse raccomandazioni riconoscono al ministero una competenza presso che esclusiva in tema di adozione di programmi e applicativi e di formazione digitale.

Tuttavia, proprio perché le scelte da compiere sono destinate a influire sull’attività interpretativa e valutativa, che si vuole preservare, non appare in linea con il dettato costituzionale ridurre la materia a un servizio meramente organizzativo, dovendosi viceversa invocare la riserva di competenza del CSM fatta salva dal medesimo articolo.

Occorre, pertanto, un più incisivo impegno da parte del CSM nel rivendicare un ruolo da protagonista, e non solo da osservatore, nell’impiego dell’IA nelle attività prodromiche alla interpretazione e alla decisione.

Occorre che il CSM garantisca i principi del giudice naturale e del giusto processo fin dalla validazione degli applicativi e delle procedure di inserimento dei dati, oltre che nell’attività di indirizzo dei programmi formativi della Scuola superiore della magistratura.

Occorre che i programmi di IA utilizzabili dai magistrati da qui all’entrata in vigore dell’AI Act vengano validati da autorità indipendenti e non da agenzie collegate alla Presidenza del Consiglio dei Ministri.

Occorre, in definitiva, che gli spazi che possono incidere sull’indipendenza e l’autonomia del magistrato vengano sottratti all’influenza e al protagonismo del potere esecutivo, sicuramente favorito dal PNRR, ma riaffermato nel potenziamento del dipartimento per l’innovazione tecnologica.