Il principio di umanità nel diritto predittivo: un argine all’automazione

Tempo di lettura stimato:5 Minuti, 14 Secondi

Nell’epoca delle decisioni automatizzate, una domanda etica e giuridica si fa urgente: può un algoritmo giudicare un essere umano?
La risposta più profonda a questa provocazione è contenuta, a nostro avviso, in quello che il Prof. Mauro Barberis propone di chiamare principio di umanità, sviluppando la nozione più tecnica di principio di complementarità: nessuna decisione che incida sui diritti di una persona può essere presa senza il coinvolgimento di un altro essere umano.

L’art. 22 del GDPR sancisce chiaramente che ogni individuo ha diritto a non essere sottoposto a una decisione fondata unicamente sul trattamento automatizzato dei dati, in particolare quando essa produce effetti giuridici o comunque significativi sulla sua persona.

Ma Barberis propone di andare oltre, formulando il principio di umanità come “un diritto umano o fondamentale, poco meno astratto della dignità umana: il diritto a essere amministrati, giudicati e governati da esseri umani, non da macchine”.

Questa impostazione sposta il dibattito su un terreno costituzionale e antropologico: al centro della giustizia non sta solo la legalità dell’atto, ma la relazione umana che lo rende legittimo.

Ma vediamo meglio.

Quando diciamo che il principio di umanità sposta il dibattito dal piano tecnico-giuridico a quello costituzionale e antropologico, intendiamo che non è più sufficiente interrogarsi sulla mera conformità formale dell’atto alla legge.
Serve, piuttosto, domandarsi: chi decide? Come? Con quale grado di consapevolezza e responsabilità? E soprattutto: quale tipo di relazione instaura con il soggetto destinatario della decisione?

Nel diritto positivo, la legalità indica che un atto deve essere conforme alla legge: deve avere cioè un fondamento normativo, rispettare una procedura, essere adottato da un soggetto legittimato. Ma questo criterio, da solo, non garantisce la giustizia dell’atto, né la sua legittimazione democratica.

Una decisione perfettamente “legale” ma presa da una macchina priva di consapevolezza, di empatia e di senso contestuale, è formalmente corretta, ma sostanzialmente disumana.

Qui entra in gioco la dimensione antropologica della giustizia, ben messa in luce dal Prof. Barberis: giudicare non è solo applicare regole, ma entrare in relazione con un’altra persona, riconoscerne la dignità, ascoltarne la posizione, motivare la propria decisione in modo comprensibile e contestabile.

Questo richiede capacità tipicamente umane, come l’intuizione del contesto sociale e culturale, la comprensione empatica, la valutazione delle intenzioni e delle circostanze attenuanti o la volontà di assumere responsabilità morale e giuridica dell’atto.

Ma un algoritmo, per quanto sofisticato possa essere, non possiede questa “intenzionalità relazionale”. È privo di coscienza, di comprensione della sofferenza, di capacità di narrare e ascoltare storie.

Giudicare, in senso forte, non è solo scegliere tra opzioni predefinite, ma deliberare, cioè esaminare, discutere, motivare. È un’azione dotata di responsabilità personale e di senso etico. In assenza di questa dimensione, il giudizio si degrada in mera predizione, e la persona giudicata si riduce a oggetto di calcolo.

È per questo che l’intervento umano non può essere un semplice controllo formale post-decisionale: dev’essere una partecipazione effettiva al processo decisionale, che garantisca il rispetto del principio personalistico (art. 2 Cost.), della dignità umana e del giusto processo (art. 111 Cost.).

Del resto, la legittimità di una decisione giuridica non deriva solo dalla sua legalità, ma anche dalla trasparenza del processo che l’ha prodotta, dalla riconoscibilità del decisore (un giudice, non una macchina), dalla possibilità di interlocuzione, cioè di spiegare, replicare, contestare, e dalla condivisione di valori che fondano la coesione sociale.

Senza questi elementi, il cittadino non percepisce la decisione come “giusta”, ma come imposta. E dove manca la percezione della giustizia, crolla la fiducia nel diritto.

Ma la giustizia predittiva sostitutiva (quella che immagina la completa automazione del giudizio) urta contro numerosi principi costituzionali italiani:

  • art. 24 Cost.: il diritto alla difesa, inviolabile in ogni stato e grado del procedimento;
  • art. 25 c. 1 Cost.: il diritto a un giudice naturale precostituito per legge, che Barberis interpreta anche come “giudice umano”;
  • art. 25 c. 2 Cost.: il principio di legalità;
  • art. 102 Cost.: l’attribuzione della funzione giurisdizionale ai magistrati, non a dispositivi elettronici.

L’automazione della giustizia, se non contenuta da adeguate cautele, finirebbe per svuotare di senso questi presidi costituzionali, rendendoli meri formalismi.

Tornando ora al principio di umanità, bisogna dire che esso non impone solo un controllo ex post sulle decisioni automatizzate, ma esige un controllo ex ante, nella progettazione stessa degli algoritmi. Serve un approccio by design, che renda i sistemi trasparenti, accessibili e contestabili sin dalla loro concezione.

Questo implica lo svolgimento di audit indipendenti e regolari, una supervisione giurisdizionale sul funzionamento delle intelligenze artificiali, ed obblighi normativi per garantire la reversibilità della decisione automatica.

Come ricorda il Prof. Massimo Luciani, «se devo scegliere qualcuno di cui non fidarmi, personalmente scelgo il giudice», proprio perché umano, criticabile, accessibile, limitato. L’algoritmo, invece, rischia di presentarsi come infallibile, ma incontestabile.

La scelta tra efficienza e umanità non può risolversi a favore della prima, quando in gioco ci sono diritti inviolabili. Nessuna rapidità decisionale giustifica l’abdicazione al controllo umano su ciò che più definisce la nostra condizione: la responsabilità.

Ed allora, nel panorama normativo europeo e costituzionale, il principio di umanità si impone come norma di chiusura: la persona non può mai essere ridotta a un dato da trattare o a una variabile da prevedere.
Ogni giudizio è un incontro tra soggetti, non una sequenza di input e output.

La giustizia digitale può esistere — e anzi migliorare la qualità del processo — solo se resta radicata in un’antropologia del limite, della relazione, della responsabilità.

E ci sia concesso allora affermare che il principio di umanità non è un vezzo retorico, ma bensì una clausola di garanzia per la democrazia costituzionale, che si fonda su relazioni tra persone, e non tra dati e codici.
Per questo il giudice — pur imperfetto, fallibile, lento — resta insostituibile: non perché non esistano algoritmi più rapidi, ma perché nessun algoritmo può rendere giustizia a un essere umano senza essere, a sua volta, umano.

Per approfondire:

- M. BARBERIS, Giustizia predittiva: ausiliare e sostitutiva. Un approccio evolutivo, in Milan Law Review, Vol. 3, No. 2, 2022, pp. 12-15;

- M. LUCIANI, La decisione giudiziaria robotica, in Rivista AIC, 2018, vol. 3, p. 872;

- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, pp. 90-94.
The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.