Il presente contributo è quello conclusivo di una serie nella quale abbiamo indagato con rigore e profondità i molteplici volti della giustizia predittiva, articolandoli in dodici tappe tematiche:
- Giustizia predittiva: promessa evolutiva o rischio sistemico?
- Quando l’algoritmo prende il posto del giudice: realtà o finzione giuridica?
- Supporto algoritmico o arbitrio mascherato? Il lato ausiliare della giustizia predittiva
- Giustizia predittiva: sorveglianza automatizzata o tutela predittiva? La linea sottile tra garanzia e controllo
- Discriminazioni algoritmiche: quando il codice giudica la persona
- La verità sui ‘giudici robot’: il caso cinese e l’informazione distorta
- Prevedere è decidere? Riflessioni sulla prevedibilità nel diritto
- Algoritmi e libertà individuale: il nuovo volto del controllo sociale
- Etica, diritto e intelligenza artificiale: triangolazione impossibile?
- Il principio di umanità nel diritto predittivo: un argine all’automazione
- L’intelligenza artificiale in ambito forense: l’avvocato tra obsolescenza e rinascita
Oggi allora, concludiamo questo percorso riflettendo su una dimensione apparentemente “minore”, ma in realtà centrale per il futuro della regolazione tecnologica: la soft law europea sull’intelligenza artificiale, con particolare attenzione alla Carta etica della CEPEJ.
Nel panorama giuridico contemporaneo, la soft law rappresenta una forma di normatività leggera ma influente, capace di indirizzare pratiche, definire standard, influenzare scelte regolatorie. Un diritto che non obbliga, ma orienta. Questo è tanto più vero nell’ambito dell’intelligenza artificiale, dove l’innovazione tecnologica precede spesso la produzione normativa vincolante.
In questo contesto si colloca la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari (premere qui per leggere), adottata dalla Commissione Europea per l’Efficacia della Giustizia (CEPEJ) il 4 dicembre 2018.
Si tratta del primo strumento europeo — e mondiale — che codifica principi sostanziali e metodologici per l’uso dell’intelligenza artificiale nella giustizia, rivolgendosi sia ai soggetti pubblici sia a quelli privati, come le legaltechs.
La Carta CEPEJ enuncia cinque principi cardine, da rispettare in ogni fase di sviluppo, implementazione e utilizzo di strumenti basati su intelligenza artificiale:
- rispetto dei diritti fondamentali: ogni applicazione deve essere conforme alla Convenzione europea dei diritti dell’uomo e alla Convenzione n. 108 sulla protezione dei dati personali;
- non discriminazione: i sistemi devono essere progettati per evitare bias sistemici o effetti diseguali;
- qualità e sicurezza: i dati utilizzati devono essere pertinenti, affidabili e protetti;
- trasparenza, imparzialità e equità: l’utente deve comprendere i meccanismi decisionali dell’intelligenza artificiale, o poterne chiedere spiegazioni;
- controllo da parte dell’utilizzatore: i giudici devono poter verificare, comprendere e discostarsi dall’output dell’algoritmo, salvaguardando la propria discrezionalità.
Soft law ≠ inefficacia
Sebbene la Carta CEPEJ non abbia forza vincolante, la sua autorità deriva dalla fonte istituzionale, dalla coerenza con il diritto europeo e dalla diffusione nei contesti giudiziari e accademici. Essa, infatti, attualmente ha già orientato linee guida operative a livello ministeriale, protocolli d’intesa con le legaltech europee, raccomandazioni del Parlamento europeo e del Consiglio d’Europa.
Secondo il Prof. Barberis, si tratta di uno degli strumenti che danno corpo a un diritto “de-positivizzato”, eticizzato e costituzionalizzato, destinato a diventare la nuova grammatica regolativa della tecnologia giuridica.
Che sia chiaro, la Carta CEPEJ non è contraria all’uso dell’intelligenza artificiale nei sistemi giudiziari, anzi, semplicemente ne limita l’uso ai contesti in cui essa supporta, senza sostituire, l’essere umano. Non autorizza né legittima decisioni automatizzate prive di controllo umano.
L’accento è posto sul principio di “intervento umano significativo”, che anticipa e rafforza quanto già previsto dall’art. 22 GDPR.
L’art. 22 del Regolamento (UE) 2016/679 (GDPR), giova ricordarlo, stabilisce che:
“L’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato […] che produca effetti giuridici che lo riguardano o incida in modo analogo significativamente sulla sua persona”.
Ecco, questa norma, pur importante, ha in realtà una portata alquanto limitata: consente eccezioni in caso di consenso esplicito o necessità contrattuale, e non specifica cosa debba intendersi per “intervento umano”.
Ed è proprio qui interviene la CEPEJ: colma infatti una grave lacuna del GDPR, precisando che l’intervento umano deve essere significativo, ossia capace di incidere sull’esito, modificare la decisione automatizzata, oppure disattenderla del tutto.
Il principio di “intervento umano significativo” (meaningful human oversight), posto al centro della Carta etica della CEPEJ, è quindi una risposta diretta alla crescente automazione dei processi decisionali nei sistemi giudiziari. Questo principio, di fatto, impone che l’essere umano non sia un semplice spettatore del processo decisionale automatizzato, ma ne mantenga il controllo sostanziale, prima, durante e dopo l’intervento dell’algoritmo.
Sia chiaro, significativo non è sinonimo di simbolico o marginale. La supervisione umana deve essere infatti effettiva, cioè dotata di capacità correttiva e decisionale reale, competente, cioè affidata a persone qualificate, informate e consapevoli delle logiche dell’algoritmo utilizzato, e contestuale, ossia calata nella specificità del caso concreto, capace di valutare le variabili non computabili (es. contesto culturale, motivazioni personali, intenti).
Risulta evidente che un siffatto principio presupponga trasparenza, accessibilità e comprensibilità del sistema automatizzato, senza i quali chiaramente l’intervento umano si ridurrebbe ad una mera formalità.
E bisogna dire che il diritto europeo si distingue — e si propone come modello globale — per la sua capacità di mediare tra principi forti e pragmatismo regolativo. A differenza dell’approccio statunitense, più orientato alla deregolamentazione e al mercato, l’Europa si fonda su una logica costituzionale e solidaristica, che vuole tutelare i cittadini anche contro le piattaforme private.
E la Carta CEPEJ è espressione di questa strategia: non un codice chiuso, ma un dispositivo aperto di garanzia, che mette in dialogo giurisdizione, tecnologia ed etica.
Ora, il fatto di aver concluso questo ciclo di articoli con la Carta CEPEJ vuo significare di riconoscere il fatto che la regolamentazione delle nuove tecnologie non è (solo) questione di norme vincolanti, ma di cultura giuridica, orientamenti, principi comuni.
Ed allora potremmo dire che la soft law europea si configura oggi come una sorta di cerniera tra l’etica dell’intelligenza artificiale e la sua regolazione giuridica effettiva. In essa si gioca la possibilità di costruire una giustizia predittiva sostenibile, giuridicamente fondata e umanamente orientata.
Per approfondire:
- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, pp. 90-95;
- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, Vol. 3, No. 2, 2022, pp. 12-16;
- G. ALPA, L’intelligenza artificiale. Il contesto giuridico, Modena, 2021, p. 75.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Perché il “Codice è Legge”: cosa ci insegna davvero il “Law of the Horse” di Lawrence Lessig nel 2025 - 14 Luglio 2025
- È possibile dimostrare che un’e-mail è stata ricevuta? Profili forensi e implicazioni giuridiche - 7 Luglio 2025
- Soft law europea e intelligenza artificiale: la carta etica della CEPEJ sotto la lente - 30 Giugno 2025
- L’intelligenza artificiale in ambito forense: l’avvocato tra obsolescenza e rinascita - 23 Giugno 2025
- Il principio di umanità nel diritto predittivo: un argine all’automazione - 16 Giugno 2025