Riflessioni a margine del convegno l’Informazione e il Diritto

Tempo di lettura stimato:13 Minuti, 29 Secondi

Nella domanda “che cos’è l’informazione?” giace dal punto di vista filosofico tutto il cambiamento culturale che sta avendo luogo oggigiorno, soprattutto per i giuristi, che generalmente si distinguono per la loro conservatività. Ma conservare oggi diventa dannoso. Il diritto non assolve più alla sua funzione se si pone su questo angolo visuale.

Con queste parole il Prof. Francesco Romeo, ordinario dell’Università degli Studi di Napoli Federico II, Dipartimento di Giurisprudenza, ha aperto l’importantissimo convegno tenutosi a Napoli gli scorsi 29, 30 e 31 maggio, che ha visto confrontarsi numerose menti in un terreno alquanto insidioso.

Il primo intervento è toccato al Dott. Roberto D’Orazio, della Camera dei Deputati, che con una eccellente relazione ha affrontato storicamente il tema partendo con il ricordare il convegno “L’informazione come bene”, tenutosi a Santa Margherita Ligure nel 1989 sotto l’egida della Fondazione Calamandrei, quando giuristi del calibro di Pietro Perlingieri, Roberto Pardolesi, Vincenzo Ricciuto, Vincenzo Zeno Zenchovic, Davide Messinetti discutevano della possibilità di definire l’informazione da un punto di vista giuridico, per poi proseguire con quello che è successo dopo quel convegno. Il Dott. D’Orazio ha posto quindi l’accento sull’informazione vista come bene comune, tema di fondamentale importanza, sul quale ha brillantemente relazionato anche il dott. Giuseppe Morano, dell’Università di Catania, ed ha posto l’accento poi anche sulla sovranità, sempre più messa in dubbio al giorno d’oggi.

La relazione di D’Orazio è inevitabilmente sfociata, come ben sottolineato dal Prof. Romeo, in quella del sottoscritto, con la quale ho tentato di presentare l’evoluzione della qualifica dell’informazione da parte della Corte di Cassazione, facendo particolare riferimento alla sua minima unità, il dato (e il bit, nella visione di Shannon). La Suprema Corte dopo aver propeso inizialmente per l’immaterialità dell’informazione, ha poi mutato il suo orientamento basandosi sostanzialmente sull’inscindibilità tra l’informazione e il mezzo che la porta.

Interessantissimo è stato poi l’intervento del Prof. Antonio Carcaterra, che ha affrontato il tema dei principi di minimo nelle macchine autonome. L’idea di fondo, alquanto destabilizzante per un giurista, è che non è possibile raggiungere la certezza giuridica. Ma tale idea trova conforto quando ci si confronta con la realtà, nella sua accezione Kantiana. La realtà è quella che è, è la cosa in sè. E nè noi ne le macchine ne abbiamo un accesso diretto. Essa comunque si trasforma, di continuo, e non è dunque possibile prevedere tutto quello che succede. La macchina riesce solo a captarne qualche evidenza di carattere fenomenica. Del resto lo spazio è continuo, il tempo altrettanto, ma i sensori riescono ad essere collocati in pochissimi punti dello spazio e riescono dunque a fare fotografie solo a certi istanti di quello che succede. Vi è dunque una incertezza di fondo la quale deriva dall’ambiente. Una incertezza dell’agente che opera sull’informazione, non eliminabile. E i principi di minimo servono appunto per ridurre, ma non per eliminare, questa incertezza. Per Carcaterra, allora, l’aritmicizzazione del mondo non è così possibile. Il dato grezzo in sé non è in grado di generare informazione, e l’informazione è in sé l’accettazione di un compromesso: dev’essere selettiva, anche perché prendere informazioni su tutto equivarrebbe a non disporre di informazioni. La conseguenza, allora, è che dobbiamo rinunciare all’idea del controllo completo sulla tecnologia. Il rischio è quello di una contraddizione in termini: da un lato vogliamo delle macchine autonome che siano capaci di decidere in ambienti in cui la configurazione degli scenari non sono definiti ex ante , dall’altro vogliamo comunque mantenere il controllo su tali macchine che però per essere tali devono comunque avere un’autonomia anche rispetto a chi le ha progettate! 

Il Prof. Caracaterra allora ha lanciato un appello ai giuristi, ponendo l’attenzione sul fatto che di fatto oggi stiamo delegando a sistemi che per definizione non possono essere controllati al 100% alcune delle attività che fino ad oggi erano sostanzialmente dell’uomo. E qui in effetti viene inevitabilmente in rilievo il tema della responsabilità, caro a noi giuristi. Questa incertezza, genera l’imprevisto e quindi genera il rischio che procura poi l’evento dannoso. Affrontare tale incertezza, insita in questi sistemi, esclusivamente con il criterio della responsabilità individuale è forse eccessivo. Effettivamente andrebbero approntati allora altri metodi.

A dir poco illuminante è stato poi l’intervento di Nicola Lettieri,  dell’Istituto Nazionale per l’Analisi delle Politiche Pubbliche, che ha posto l’accento sulle potenzialità degli strumenti simulativi dell’ordine sociale ed in particolare sulla possibilità, attraverso la simulazione su agenti informatici, di creare regole generali che si basino su predisposizioni umane (anche genetiche) rendendo possibile un rispetto della regola nell’individuo a prescindere da tutto. E la simulazione nelle scienze sociali apre la porta alla sperimentazione. Per Lettieri gli sviluppi della scienza e della tecnologia rendono l’elaborazione automatica dell’informazione uno strumento che permette di immaginare nuovi approcci allo studio delle norme sociali, e che per questo i giuristi dovrebbero guardare con interesse. E qui si inserisce la scienza sociale computazionale, e cioè un paradigma scientifico costruito intorno alla elaborazione automatica dell’informazione. Effettivamente oggi, è del tutto possibile studiare la realtà e descrivere i fenomeni sociali descrivendo le interrelazioni degli individui che ne fanno parte come processi di scambio dell’informazione, oppure descrivere una dinamica sociale come un flusso di informazioni all’interno del quale identificare delle regolarità (come avviene con il machine learning). Ebbene, Lettieri, richiamando l’empirismo computazionale di Paul Humphreys, e cioè la capacità che la computazione ha di ampliare l’orizzonte della nostra conoscenza empirica, ha magistralmente chiamato in causa i giuristi. Per Lettieri, infatti, i fatti che sono interessanti per il diritto, il modo in cui il diritto nasce, si evolve, il modo in cui le norme giuridiche interagiscono con le norme sociali, sono cose che si possono studiare anche con approcci computazionali. Il diritto ha allora una nuova possibilità di essere “empirico”, che può essere studiato in maniera nuova con linguaggi nuovi. Del resto l’intelligenza artificiale può essere uno strumento per capire il mondo, non uno strumento da spiegare. Bisogna allora che anche i giuristi facciano prototipi, si “sporchino le mani” andando a parlare con gli informatici e gli ingegneri senza rimanere rigidi nei propri ruoli, ma appunto si calino a pieno nella realtà. 

E proprio in tema di dialogo, ma non tra umani, bensì tra uomo e macchina, da segnalare la brillante relazione di Caterina Tarquini dell’Università di Tor Vergata, il cui contributo intitolato “Dialogo con la macchina: prospettive filosofico-giuridiche in tema di reperimento conversazionale dell’informazione” è stato tra l’altro premiato come miglior relazione nell’ambito della Teoria Generale del Diritto, e con il quale la Tarquini ha posto bene in evidenza la trasformazione del paradigma conversazionale. 

Poi vi è stato l’intervento del Prof. Giuseppe Lorini, dell’Università di Cagliari, che ha magistralmente analizzato il lato deontico dell’informazione, andando a guardare come sia possibile costruire informazioni che portino un dover essere (o come ha poi giustamente sottolineato il prof. Romeo una “normatività”) senza passare dall’enunciato e neanche dal significato contenuto nell’enunciato. Si tratta di un tanto elegante quanto accurato attacco al “cerchio perfetto” creato dal normativismo di Norberto Bobbio: la norma giuridica è un significato contenuto in un enunciato; quando si parla del diritto si parla di un insieme di norme; le norme si trovano negli enunciati; gli enunciati si trovano negli atti di legge e negli atti aventi forza di legge; la norma quindi è il significato di quell’enunciato. Per Lorini infatti non sono solo gli enunciati, fatti di parole, a contenere i significati, o a contenere la normatività, ma anche l’informazione. L’informazione deontica, infatti, può costruire un dover essere anche senza la parola. L’aggettivo deontico deriva dal greco  “(τό) δέον” che significa “ciò che è necessario”. Una informazione deontica può dunque essere ad esempio un manuale di istruzioni di un’automobile, o meglio ancora i segnali stradali. E la realizzazione di questo la si può ben vedere nel c.d. digital nudging, ossia il fenomeno della persuasione digitale, fondato su presupposti cognitivi di preferenza dell’individuo, come ben messo in evidenza da Luigi Prosia dell’Università di Tor Vergata (ma non solo in senso negativo, anche in senso premiale, come evidenziato da Alessia Del Pizzo dell’Università degli Studi Niccolò Cusano). 

Dopo poi questa prima sessione introduttiva, illustri giuristi penalisti e civilisti si sono confrontati sui vari aspetti dell’informazione con le loro rispettive branche. 

I penalisti (e processual-penalisti) fra cui la padrona di casa Prof.ssa Maffeo, il Prof. Giuseppe Di Chiara, dell’Università di Palermo, il Consigliere del CSM Antonello Ardituro, il Dott. Cesare Parodi, il Dott. Eugenio Albamonte, il direttore della Polizia Postale Ivano Gabrielli, la Prof.ssa Donatella Curtotti dell’Università di Foggia e poi ancora il Prof. Roberto Kostoris e il Prof. Marcello Daniele dell’Università di Padova, il Prof. Francesco Caprioli dell’Università La Sapienza, il Prof. Giulio Ubertis dell’Università Cattolica, si sono interrogati su che significato avesse il termine informazione nella sua accezione digitale e al modo con il quale essa si forma e si traduce nella sostanza in dato probatorio, utilizzabile per il giudizio sulla responsabilità penale di un soggetto. 

L’attenzione è stata inevitabilmente posta sull’intelligenza artificiale ed il pensiero quasi comune potrebbe tradursi nell’esigenza di avere a disposizione i dati elaborati e le regole per elaborarli (cioè gli algoritmi) per poter dare all’informazione un significato oggettivo. 

Naturalmente è stato ben affrontato anche il tema della formazione della prova digitale. Qui c’è un problema di non poco momento. Secondo infatti le regole oggi vigenti essa dovrebbe formarsi in dibattimento, nel contraddittorio tra le parti, ma in realtà si forma prevalentemente durante le indagini, e viene solo trasferita nel dibattimento attraverso un contraddittorio meramente formale.

Il Prof. Kostoris ha sottolineato che il contraddittorio dibattimentale esprime appieno la sua capacità euristica soprattutto in un contesto che attribuisca valore alle parole, ai gesti, ai silenzi, alle pause e più in generale ai comportamenti non verbali. Un contesto, quindi, nel quale il giudice è chiamato a decidere unendo razionalità e intuizione. Il rischio quindi di un eccessivo utilizzo degli algoritmi è quindi quello di una riduzione del contraddittorio ad un duello sui numeri (cioè sugli algoritmi) e non sulle cose della vita reale. 

Sul piano delle dinamiche probatorie, in particolare, lo sviluppo tecnologico sta travolgendo l’intera dommatica della prova, costruita, come evidenziato dal Prof. Caprioli, sul modello della prova dichiarativa come ai tempi della Rivoluzione Francese. E questo fenomeno impone inevitabilmente ai giuristi delle profonde riflessioni dal momento che ad essere in gioco qui sono i principi fondamentali del giusto processo. 

Durante il dibattito è emersa poi una interessantissima visione sull’uso dell’intelligenza artificiale generativa per avere dei modelli di motivazione. Sostanzialmente si è ritenuto possibile l’uso di questi strumenti perché in grado di creare dei modelli equivalenti a quelli che abitualmente preparano gli addetti all’Ufficio del Processo, o gli ausiliari. Sul punto il Prof. Agostino De Caro dell’Università del Molise, ha richiamato tutti all’ordine ponendo l’attenzione sul fatto che sempre più oggigiorno si assiste all’utilizzo della motivazione in chiave giustificativa e non esplicativa. Ma la motivazione non dovrebbe in realtà servire a giustificare una decisione ma a spiegare la decisione! Ed allora una motivazione elaborata dalla macchina, per quanto precisa e puntuale, non sarà mai la riproduzione fedele e puntuale del percorso che il giudice, anche con l’ausilio delle intuizioni e delle emozioni ha realizzato per arrivare ad una determinata decisione. 

Estremamente interessante e ricco di spunti è stato poi il dibattito portato avanti dai civilisti, fra cui il Prof. Roberto Bocchini e il Prof. Carleo dell’Università Parthenope, il Prof. Enrico Camilleri e il Prof. Luca Nivarra, dell’Università di Palermo, la Prof.ssa D’Alfonso dell’Università Vanvitelli, la Prof.ssa Valeria Falce e il Prof. Alberto Gambino dell’Università Europea di Roma, il Prof. Albanese dell’Università Cattolica, la Prof.ssa Montinaro dell’Università Orientale e la Prof.ssa Gatt e il Prof. Balassone dell’Università Orientale. 

E’ stato analizzato il significato del lemma informazione innanzitutto dal punto di vista funzionale, inquadrandolo quindi a seconda dei casi concreti, come ad esempio informazione come fonte di responsabilità civile (responsabilità da informazione inesatta), o informazione che riguarda la persona (privacy), o ancora informazione come oggetto del contratto. 

Sono stati poi a più riprese messi in evidenza i problemi metodologici relativi alla qualificazione giuridica del concetto di informazione ed in particolare alla necessità di dare un significato univoco all’informazione. Nel contesto del diritto europeo dei dati, infatti, è possibile trovare accostati due lemmi, dato e informazione, in accezioni completamente diverse. Ma più in generale anche in dottrina si parla di informazione sia come bene dotato di valore socio economico e in questa chiave il dato come rappresentazione digitale dell’informazione in grado di generare valore sulla base dell’impiego e dello scambio, sia come producente un impatto sulla sfera giuridico patrimoniale e non patrimoniale della persona. 

Non potevano poi non emergere i vari problemi di ricostruzione del quadro normativo con particolare riferimento al Digital Services Act. Nei panel presieduti dalla Prof.ssa Caggiano, e dal Prof. Gambino in particolare, proprio con riferimento a tali problemi si è dovuto porre l’accento alla tecnica del combinato disposto, come possibile soluzione al problema, e ai numerosi problemi che si sono riscontrati fino ad oggi nel rendere realmente effettiva la tutela del DSA.  

E’ stato anche approfondito con grande cura il tema della vulnerabilità digitale, che non può essere più limitato alle categorie “classiche” (minori, disabili e anziani), ma va esteso come vulnerabilità relazionale a qualsiasi essere umano. Nel mondo digitale, infatti, qualsiasi soggetto è estremamente vulnerabile e da molteplici punti di vista: nella comprensione delle informazioni, nella possibilità di manipolazione (e qui ritorna il tema del digital nudging), e più in generale nella incapacità a stare dietro all’evoluzione tecnologica.

In definitiva, questo convegno ha rappresentato un momento storico di riflessione e discussione sul ruolo del diritto nell’era dell’informazione digitale, segnando un punto di svolta nella comprensione e nell’approccio al diritto in un contesto tecnologico in rapida evoluzione.

La riconsiderazione dell’informazione come bene comune e la sua inscindibilità con il mezzo di trasporto, come evidenziato dalla Corte di Cassazione, segnano un’evoluzione giuridica fondamentale. Storicamente, il diritto ha trattato l’informazione come un’entità immateriale, tuttavia, l’evoluzione tecnologica impone un riconoscimento della concretezza dei dati e del loro impatto pratico. Questo cambiamento richiede un adattamento delle norme e un approccio dinamico da parte dei giuristi.

Le riflessioni del Prof. Antonio Carcaterra sull’incertezza nei sistemi autonomi e sull’impossibilità di raggiungere la certezza giuridica introducono un nuovo paradigma nella gestione della responsabilità. Storicamente, la responsabilità è stata affrontata con criteri tradizionali, ma l’evoluzione dei sistemi autonomi richiede l’elaborazione di nuovi metodi per gestire l’incertezza e ridurre il rischio.

L’intervento di Nicola Lettieri sulle potenzialità della simulazione computazionale e della scienza sociale computazionale rappresenta un importante passo avanti nella comprensione delle norme sociali e del diritto. La rivoluzione di questo approccio risiede nell’adozione di strumenti innovativi che permettono ai giuristi di studiare il diritto in modo empirico e interdisciplinare, unendo le competenze legali con quelle informatiche e ingegneristiche.

La relazione di Caterina Tarquini sull’interazione uomo-macchina sottolinea la necessità di adattare il diritto ai nuovi paradigmi conversazionali introdotti dalla tecnologia. Tradizionalmente, il diritto si è basato su interazioni umane dirette, ma l’avvento delle tecnologie emergenti richiede ai giuristi una maggiore apertura e flessibilità nell’integrazione di nuovi strumenti comunicativi.

Il concetto di informazione deontica, introdotto dal Prof. Giuseppe Lorini, segna un’evoluzione invece nella comprensione della normatività. Com’è noto la normatività è stata associata a enunciati verbali, ma l’informazione deontica dimostra che il diritto può assumere forme diverse, influenzando il comportamento umano anche senza passare attraverso le parole.

Le discussioni tra i penalisti sul significato dell’informazione digitale e la formazione della prova digitale evidenziano un cambiamento storico nel diritto probatorio. La necessità di bilanciare l’uso degli algoritmi con i principi del giusto processo rappresenta una sfida epocale che richiede una revisione dei metodi tradizionali per garantire un processo equo.

Infine, la questione della vulnerabilità digitale e l’estensione delle tutele a tutti gli individui riflette una comprensione nuova delle interazioni digitali. Tradizionalmente, la protezione giuridica si è concentrata su categorie specifiche, ma l’evoluzione tecnologica richiede una protezione più ampia e inclusiva.

In definitiva questo evento ha sottolineato l’importanza della collaborazione interdisciplinare, dell’adozione di nuovi strumenti e metodi, e della revisione continua delle norme giuridiche per affrontare le sfide della rapida evoluzione tecnologica. E solo attraverso un adattamento continuo e una visione aperta al cambiamento, il diritto potrà continuare a svolgere efficacemente la sua funzione nella società moderna.

The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.