L’intelligenza artificiale non è solo un insieme di codici e modelli matematici ma bensì è un potente artefatto sociale e giuridico, capace di influenzare scelte, comportamenti, istituzioni. Ed è proprio per questo motivo che il suo impiego nella giustizia, nella sanità, nella sicurezza solleva questioni etiche dirompenti, spesso irrisolte o ignorate (per il momento) dal legislatore.
Limitando l’indagine al mondo del diritto, la presenza dell’intelligenza artificiale costringe a ripensare il rapporto tra norma giuridica, valore morale e responsabilità. Ed allora gli interrogativi che sorgno sono tanti, e di grandissimo rilievo. Ad esempio, è possibile regolare un sistema intelligente che apprende autonomamente e agisce in contesti imprevedibili? Ma soprattutto, chi risponde delle scelte di una macchina?
Non è affatto facile dare una risposta a questi interrogativi, ma vediamo perlomeno di capire se è possibile almeno anche solo avvicinarsi ad una possibile risposta.
Ed allora, cominciamo col dire che durante la cosiddetta “decade digitale” (2010–2020), pare del tutto evidente che è emerso un diritto che non si limita più alla positivizzazione delle regole, ma si permea invece di principi morali, spesso provenienti da codici etici, raccomandazioni internazionali, norme di c.d. “soft law”. Il Prof. Barberis parla, a questo proposito, di un diritto “depositivizzato”, in cui le distinzioni tradizionali tra regola giuridica, etica e governance sfumano.
Grandi corti, autorità indipendenti, organismi internazionali — dalla CEPEJ alla Pontificia Accademia per la Vita — producono regole che attingono sempre più a un linguaggio etico: trasparenza, equità, rispetto della dignità umana, inclusività, responsabilità.
L’espressione “diritto depositivizzato”, usata dal Prof. Mauro Barberis, rappresenta, a nostro sommesso avviso, una raffinata chiave di lettura del fenomeno contemporaneo per cui il diritto positivo — cioè il diritto formalmente vigente, promulgato da organi competenti — non basta più a reggere da solo la complessità normativa indotta dalla digitalizzazione e dall’intelligenza artificiale.
Barberis rovescia ironicamente l’idea tradizionale di positivizzazione del diritto: se il diritto moderno si è storicamente affermato attraverso un processo di positivizzazione delle norme (cioè la loro formalizzazione, scrittura, codificazione e imposizione da parte dello Stato), oggi assistiamo al fenomeno opposto. Il diritto, pur restando formalmente “positivo”, è costretto ad assorbire in sé contenuti etici, tecnici, culturali, provenienti da contesti extragiuridici, come la soft law (codici etici, linee guida, standard ISO, raccomandazioni internazionali), o come le valutazioni etico-deontologiche dei comitati bioetici o delle agenzie europee o come ancora le forme di autoregolazione algoritmica sviluppate da aziende private.
Il diritto, insomma, si “degiuridicizza” nella sostanza mentre resta giuridico nella forma, diventando un contenitore normativo di contenuti non strettamente giuridici. Barberis lo definisce appunto “depositivizzato”: un diritto che, pur rimanendo nello spazio formale della legge e della regolazione, è colonizzato da valori e prassi extra-statuali, spesso senza discussione democratica né controllo sistemico.
La Carta etica della CEPEJ sull’intelligenza artificiale nei sistemi giudiziari del 2018 (premere qui per leggere) ne è un esempio paradigmatico. Si tratta di un documento giuridicamente non vincolante, ma dotato di fortissima forza normativa indiretta, poiché di fatto orienta le prassi amministrative e giudiziarie nazionali, viene sistematicamente incorporato in progetti di legge e regolamenti nazionali, e fissa principi (trasparenza, responsabilità, non discriminazione) che fungono da criteri di valutazione giuridica anche senza forza di legge.
Negli ultimi tempi, tra i vari nuovi principi emergenti, quello di umanità (o complementarità) si è imposto come argine all’automazione cieca. Secondo il GDPR (art. 22), ogni individuo ha diritto a non essere sottoposto a decisioni basate unicamente su trattamenti automatizzati, quando queste producono effetti giuridici significativi.
Il messaggio è alquanto chiaro: nessun algoritmo può decidere da solo sulle sorti di un essere umano. Ci deve sempre essere un controllo umano significativo. Se ci pensiamo bene, questo principio, apparentemente tecnico, è in realtà profondamente etico, perché riafferma la centralità della persona nel diritto.
La domanda che più di tutte attraversa oggi dottrina e giurisprudenza è se sia possibile attribuire responsabilità morale a una macchina dotata di intelligenza artificiale. La risposta, per ora, è negativa. Come sottolinea l’avv. Michele Iaselli, la responsabilità ricade inevitabilmente sull’essere umano: il programmatore, il produttore, il datore di lavoro, l’ente pubblico che impiega la tecnologia.
Eppure, nei sistemi più avanzati, in cui l’intelligenza artificiale è capace di apprendere in autonomia e agire senza supervisione costante, questa catena di imputabilità si fa debole, indiretta, elusiva. Ne derivano rischi giuridici ed etici inediti: danni non prevedibili, pregiudizi sistemici, ingiustizie strutturali.
Nel diritto classico — soprattutto nella responsabilità civile e penale — vige un principio fondamentale: ogni danno deve potersi ricondurre a un soggetto responsabile. Questo presuppone la possibilità di individuare: un comportamento attivo o omissiv,; un soggetto agente (persona fisica o giuridica), un nesso causale diretto tra condotta e danno.
Nel contesto delle tecnologie di intelligenza artificiale più evolute, come i sistemi self-learning o deep learning non supervisionato, questa sequenza si spezza. La macchina, una volta addestrata, può prendere decisioni che non sono più riconducibili direttamente a un comando umano. E qui si apre il problema: chi è giuridicamente responsabile di un output imprevisto o dannoso generato autonomamente da un algoritmo?
Come osserva l’avv. Iaselli, nei casi in cui l’intelligenza artificiale opera in ambienti dinamici senza costante supervisione, la responsabilità può “sfuggire di mano”, generando una catena di imputazione debole e indiretta: si passa dal progettista al programmatore, dal fornitore di dati al titolare del trattamento, dal datore di lavoro al produttore del sistema.
Un rischio giuridico inedito connesso a questa debolezza è quello dei danni imprevedibili, cioè quegli eventi che non erano prevedibili all’atto della programmazione, perché frutto dell’apprendimento autonomo del sistema, non sono riproducibili a fini probatori, perché generati in ambienti ad alta variabilità o tramite reti neurali non trasparenti (black box), non possono essere imputati secondo le categorie tradizionali di colpa o dolo, perché nessun operatore umano ha effettivamente voluto o previsto l’esito dannoso.
Questa situazione mette in crisi l’intero impianto della responsabilità civile, fondato sul principio di prevedibilità e imputabilità causale. Il diritto si trova a dover decidere senza un colpevole chiaramente identificabile.
Un altro rischio è costituito dai pregiudizi sistemici (systemic bias), ossia errori strutturali incorporati nel sistema algoritmico. Tali bias possono derivare, ad esempio, da dati di addestramento distorti o parziali (es. dataset giudiziari che riflettono discriminazioni di genere o razza), oppure da scelte inconsapevoli dei programmatori su pesature, criteri di rilevanza, soglie di attivazione, oppure ancora da retroazioni impreviste nell’apprendimento automatico.
A differenza dell’errore umano, che può essere identificato e corretto, il bias algoritmico si nasconde nel codice e nei dati, rendendo difficile attribuirne la responsabilità e ancor più difficile rimediare ai suoi effetti. Come ben rileva il Prof. Santosuosso, l’apparente oggettività dell’algoritmo finisce per mascherare l’iniezione sistemica di fattori discriminatori.
Ed allora il pericolo finale è l’istituzionalizzazione dell’ingiustizia. Un qualsiasi sistema algoritmico impiegato in ambiti sensibili — giustizia penale, welfare, credito, sanità — può, se viziato da errori sistemici, replicare e amplificare le disuguaglianze sociali esistenti ad esempio negando prestazioni a categorie fragili, oppure aggravando pene su base probabilistica, opprue ancora escludendo individui da opportunità sulla base di dati parziali o obsoleti.
In questo scenario, l’ingiustizia non è più episodica o individuale, ma strutturale e sistemica, resa invisibile dal carattere “automatico” della decisione.
E tutto questo deriva dalla grande illusione delle neutralità.
Si perchè l’algoritmo, in realtà, non è neutrale. È un codice intriso di scelte morali, anche se non sempre consapevoli: quali dati selezionare, come pesare le variabili, quali esiti ritenere “ottimali”. Programmatori e data scientist si trovano così a esercitare un potere etico implicito, senza averne gli strumenti teorici o la legittimazione democratica.
In altre parole: l’etica è programmata!
Ed allora, come suggerisce il Prof. Floridi, occorre una nuova “etica degli algoritmi”, capace di orientare la progettazione, l’uso e la sorveglianza dei sistemi intelligenti. Ma questa etica non può essere lasciata alle grandi piattaforme o ai soli ingegneri: deve diventare oggetto di diritto pubblico.
Etica, diritto e intelligenza artificiale non sono mondi separati, ma vertici di un triangolo concettuale che oggi va necessariamente armonizzato. Il rischio, altrimenti, è duplice: da un lato, una normatività algoritmica opaca, che agisce senza fondamento etico; dall’altro, una moralizzazione del diritto senza concretezza operativa, che lascia impuniti gli abusi o scoraggia l’innovazione.
Il futuro della giustizia algoritmica dipende quindi dalla capacità del giurista di coniugare rigore normativo e consapevolezza etica, progettando una intelligenza artificiale costituzionale, umanamente responsabile, giuridicamente regolata e moralmente sostenibile.
Per approfondire:
- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, Vol. 3, No. 2, 2022, p. 6 ss.;
- A. SANTOSUOSSO, Intelligenza artificiale e diritto, Milano, 2020, p. 99 ss.;
- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, p. 90 ss.;
- L. FLORIDI, Etica dell’intelligenza artificiale. Sviluppi, opportunità, sfide, Milano, 2022, p. 127 ss;.
- C.E.P.E.J., Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari, Strasburgo, 2018.
Nicola Nappi
Ultimi post di Nicola Nappi (vedi tutti)
- Perché il “Codice è Legge”: cosa ci insegna davvero il “Law of the Horse” di Lawrence Lessig nel 2025 - 14 Luglio 2025
- È possibile dimostrare che un’e-mail è stata ricevuta? Profili forensi e implicazioni giuridiche - 7 Luglio 2025
- Soft law europea e intelligenza artificiale: la carta etica della CEPEJ sotto la lente - 30 Giugno 2025
- L’intelligenza artificiale in ambito forense: l’avvocato tra obsolescenza e rinascita - 23 Giugno 2025
- Il principio di umanità nel diritto predittivo: un argine all’automazione - 16 Giugno 2025