La scena che sto per descrivere sembra uscita da un racconto distopico.
Un’aula di giustizia silenziosa, nessuna toga, nessun volto umano. Solo un terminale. Inseriti i dati del caso, l’esito compare in pochi secondi. Nessuna udienza, nessuna valutazione discrezionale. Solo una sentenza generata da un algoritmo.
Ma questa è davvero la direzione che stiamo prendendo? L’algoritmo può — in diritto — sostituirsi al giudice? Oppure siamo di fronte a una proiezione fuorviante, a una finzione giuridica incapace di cogliere la complessità del giudicare?
Per rispondere a questi interrogativi occorre rigore e chiarezza.
Innanzitutto è opportuno porre una distinzione necessaria tra sistemi di supporto alla decisione (ausiliari) e sistemi che prendono la decisione in autonomia (sostitutivi).
Come puntualizza M. Barberis:
La giustizia predittiva può essere accettata come forma di consulenza algoritmica, ma non può surrogare la decisione del giudice senza violare i principi fondamentali del diritto processuale
Nel diritto italiano — e in generale nei sistemi di civil law — la motivazione della sentenza non è un orpello, ma il cuore dell’attività giurisdizionale. Essa rappresenta il passaggio logico-giuridico che lega la norma al caso concreto.
Un algoritmo, per quanto evoluto, non può motivare in senso giuridico, poiché non dispone di razionalità ermeneutica.
Il giudice umano non è un mero calcolatore, mentre invece l’intelligenza artificiale giudiziaria si basa su modelli statistici che calcolano probabilità di esiti in base a precedenti simili.
Ma la giurisdizione non è un gioco di probabilità. È una forma di deliberazione razionale e responsabile, che coinvolge valutazioni assiologiche, equità, circostanze eccezionali.
Lo ricorda il Prof. G. Sartor:
Non esiste una regola assoluta che vincoli il giudice ai precedenti. Il sistema non è chiuso, ma aperto all’interpretazione e all’adeguamento della norma al caso
Un algoritmo, invece, generalizza. Ricerca pattern. Riduce l’unicità del fatto concreto a una stringa confrontabile.
Così facendo, perde ciò che rende la giustizia veramente tale: l’attenzione all’individualità del caso umano.
Ad oggi, nessun ordinamento occidentale ha introdotto giudici algoritmici.
Esistono però sistemi già attivi che forniscono previsioni sull’esito dei giudizi, utilizzati da avvocati e giudici per orientare le decisioni o le strategie processuali.
Un esempio noto è COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), utilizzato negli Stati Uniti per valutare la probabilità di recidiva in sede penale, che ha però già mostrato i limiti di tale approccio in casi come State v. Loomis, dove il giudice ha fondato la pena su un punteggio predittivo fornito da un algoritmo non trasparente e non contestabile.
La Corte ha poi rilevato che ciò comprometteva il diritto alla difesa e alla motivazione.
Nel contesto europeo invece, come ben evidenzia l’avv. M. Iaselli,
i sistemi predittivi sono ancora strumenti informativi, non decisionali, e qualunque automatizzazione della decisione deve restare sotto il controllo pieno del giudice umano
Chi sostiene invece la sostituzione del giudice con l’intelligenza artificiale si rifugia spesso nel mito della neutralità.
Ma gli algoritmi sono progettati da esseri umani, su basi di dati costruite da esseri umani. Sono, dunque, specchi statistici di pregiudizi, errori e squilibri già esistenti.
Come ricorda Barberis,
affidare la giustizia a una macchina significa congelare il diritto nel passato, privandolo della sua funzione trasformativa e critica
Ed allora, l’orizzonte auspicabile non è quello di un algoritmo che decide al posto del giudice, ma di un algoritmo che aiuta il giudice a decidere meglio. Fornendo analisi di precedenti, elaborando scenari, segnalando anomalie — senza mai prendere il posto dell’intuizione giuridica.
L’intelligenza artificiale giuridica può migliorare la coerenza e ridurre (forse) i tempi. Ma non può garantire giustizia.
Perché la giustizia — quella autentica — non è una formula, ma una responsabilità.
Per approfondire:
- A. SANTOSUOSSO – G. SARTOR, La giustizia predittiva: una visione realistica, in Giurisprudenza Italiana, 2022, p. 1759 ss.;
- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, 2022, p. 5 ss.;
- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, p. 88 ss.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Prevedere è decidere? Riflessioni sulla prevedibilità nel diritto - 19 Maggio 2025
- “Giudici robot” o distorsioni mediatiche? Il caso cinese e il pericolo dell’informazione sensazionalistica - 12 Maggio 2025
- Discriminazioni algoritmiche: quando il codice giudica la persona - 5 Maggio 2025
- Giustizia predittiva: sorveglianza automatizzata o tutela predittiva? La linea sottile tra garanzia e controllo - 28 Aprile 2025
- Supporto algoritmico o arbitrio mascherato? Il lato ausiliare della giustizia predittiva - 14 Aprile 2025