Negli ultimi anni, l’informazione giuridica è stata più volte travolta da ondate sensazionalistiche. Una delle più significative ha riguardato la notizia, rimbalzata su quotidiani e siti web internazionali, secondo cui in Cina sarebbe operativo un “giudice robot” capace di emettere decisioni in ambito penalistic. Una narrativa seducente, ma profondamente fuorviante. Lo dico subito, senza giri di parole: in realtà, nessun giudice è stato sostituito da un algoritmo! Si trattava di un software a supporto del Pubblico Ministero per la selezione preliminare dei casi da portare a giudizio, dunque ben distante dall’idea di una decisione giudiziale automatizzata.
Questo tipo di notizie, spesso derivanti da un processo di deformazione progressiva della fonte originale, finiscono per creare un vero e proprio “mito tecnologico” alimentato da scarsa conoscenza giuridica e dalla fascinazione per l’intelligenza artificiale. Quello che è successo, come ben spiegato dai professori Sartor e Santosuosso, è stato che un titolo inizialmente corretto – ad esempio quello del South China Morning Post che parlava di “AI prosecutor” – si è trasformato, attraverso passaggi redazionali successivi, in una falsa notizia su un “giudice robot” operante in tribunale.
Ma tale caso cinese non è isolato. Si pensi, ad esempio, ai progetti europei che hanno introdotto l’uso di software predittivi per la gestione delle controversie di modesta entità. In Francia, nel 2017, le Corti d’appello di Douai e Rennes hanno condotto un esperimento su un software definito impropriamente “predittivo”, che in realtà si limitava semplicemente a visualizzare statisticamente l’esito delle cause simili già trattate.
Dunque, anche qui, nessuna sostituzione del giudice, ma strumenti informatici orientati a fornire elementi ausiliari per valutazioni preliminari o per sostenere l’argomentazione giuridica. Il rischio maggiore non è la macchina, ma la narrazione della macchina.
Giova allora qui richiamare la Carta etica della CEPEJ del 2018 (premere qui per leggere), spesso citata come prova della “penetrazione dell’intelligenza artificiale nei sistemi giudiziari”, chiarisce in realtà che l’intelligenza artificiale è usata “soprattutto in ambito privato, da studi legali e compagnie assicurative”, mentre “i giudici dei Paesi membri del Consiglio d’Europa non fanno uso quotidiano di software predittivi”.
In Italia, la Corte d’Appello di Venezia ha realizzato un database accessibile tramite il proprio sito web (premere qui per accedere), in cui sono raccolte alcune sentenze suddivise per materia e corredate da massime e indicatori cronologici, con l’obiettivo di agevolare la consultazione delle decisioni già rese e fornire un quadro empirico (non predittivo) sulla durata media dei procedimenti nelle diverse sezioni.
Ancora, la Corte d’Appello di Brescia ha intrapreso un’operazione analoga, offrendo una selezione tematica e cronologica delle sentenze, accompagnata da alcuni indicatori statistici consultabili per materia e anno. Anche in questo caso, la funzione è ricognitiva e organizzativa, non vi è alcun impiego di machine learning o di sistemi in grado di generare previsioni giudiziarie personalizzate.
Eppure progetti come quelli delle Corti d’appello di Venezia e Brescia vengono invece erroneamente presentati come applicazioni di intelligenza artificiale, ma in verità, consistono in basi dati massimate e statistiche sui tempi di definizione dei procedimenti, strumenti informatici tradizionali, non riconducibili ad algoritmi predittivi o decisori.
Come chiarisce la dottrina, affinché si possa parlare propriamente di intelligenza artificiale, occorre che il sistema sia capace di:
- apprendere dai dati (machine learning);
- formulare autonomamente correlazioni o previsioni;
- aggiornare le proprie risposte sulla base di feedback o nuovi input.
I progetti di Venezia e Brescia, per quanto utili e degni di nota sul piano organizzativo, non rispondono a nessuno di questi requisiti. Si tratta di strumenti statici, a contenuto selezionato ex ante da operatori umani (giudici, assistenti, funzionari), e fondati su logiche documentali tradizionali: massimazione, catalogazione, datazione, riepilogo statistico.
Sono quindi assimilabili a una banca dati giurisprudenziale arricchita da elementi quantitativi, più che a una vera piattaforma di “giustizia predittiva”. L’aggettivo “predittiva”, per come usato in questo contesto, è perciò improprio o quantomeno inconsistente rispetto alla definizione accademica e tecnica dell’intelligenza artificiale.
Tornando ora al tema principale, come avvertono i Professori Sartor e Santosuosso, l’adozione di algoritmi nella giustizia presenta un ulteriore rischio, quello cioè di indurre i giudici ad adagiarsi su soluzioni preconfezionate, cedendo all’“effetto gregge” (effet moutonnier) già segnalato da Garapon e Lassègue. La tecnologia viene percepita come intrinsecamente neutra e scientifica, e questo genera un potenziale svuotamento della discrezionalità giudiziaria, con conseguente perdita del dovere di motivazione.
Ne è un esempio concreto il caso americano State v. Loomis, in cui un algoritmo predittivo di recidiva (COMPAS) ha influenzato una decisione giudiziaria. L’imputato è stato condannato a una pena più severa sulla base del rischio statistico attribuito dal software, senza che la difesa potesse accedere al codice sorgente, coperto da copyright. Successive indagini hanno mostrato bias razziali sistemici nel funzionamento dell’algoritmo (ne abbiamo parlato diffusamente in un precedente contributo, premere qui per leggerlo).
La giustizia predittiva, anche nella sua forma ausiliaria, tende a congelare l’interpretazione giurisprudenziale, operando una sintesi statistica dei precedenti. Ma il diritto, come osserva il Prof. Mauro Barberis, non è una somma di sentenze ma un processo dinamico di continua riformulazione del senso: l’uso algoritmico dei precedenti può favorire la standardizzazione, ma anche l’inerzia, con effetti discriminatori e regressivi, in particolare per le minoranze.
Insomma, il caso cinese e la narrazione del giudice-robot insegnano che il vero problema non è (ancora) l’automazione del giudizio, ma l’automatismo dell’informazione. In un’epoca di polarizzazione e viralità, occorre che l’avvocatura, la magistratura e l’accademia giuridica sviluppino un approccio critico, deideologizzato e documentato alla questione dell’intelligenza artificiale nella giustizia.
Come ammonisce il Prof. Massimo Luciani, una discussione seria sull’intelligenza artificiale nella giustizia richiede un lessico rigoroso e un’analisi giuridico-tecnologica puntuale, altrimenti si finisce per “rinchiudersi in una nuova normatività informatica” priva di reale fondamento giuridico
Non basta “credere o non credere” nei giudici robot. Bisogna sapere di cosa si parla.
Per approfondire:
- G. SARTOR, A. SANTOSUOSSO, Giustizia predittiva: una visione realistica, in Giustizia Italiana, 2022, p. 1760 ss.;
- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, vol. 3, n. 2, 2022, p. 2 ss.;
- C.E.P.E.J., Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nel loro ambiente, Strasburgo, dicembre 2018;
- A. GARAPON, J. LASSÈGUE, Justice digitale. Révolution graphique et rupture anthropologique, PUF, Parigi, 2018.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Perché il “Codice è Legge”: cosa ci insegna davvero il “Law of the Horse” di Lawrence Lessig nel 2025 - 14 Luglio 2025
- È possibile dimostrare che un’e-mail è stata ricevuta? Profili forensi e implicazioni giuridiche - 7 Luglio 2025
- Soft law europea e intelligenza artificiale: la carta etica della CEPEJ sotto la lente - 30 Giugno 2025
- L’intelligenza artificiale in ambito forense: l’avvocato tra obsolescenza e rinascita - 23 Giugno 2025
- Il principio di umanità nel diritto predittivo: un argine all’automazione - 16 Giugno 2025