Assicurare un’intelligenza artificiale: il problema della personalità giuridica

Tempo di lettura stimato:5 Minuti, 46 Secondi

La progressiva adozione di sistemi di guida autonoma di livello 4 e 5 SAE (premere qui per approfondire) sposta inevitabilmente il centro di gravità della responsabilità civile dall’essere umano alla macchina. Ed in questo scenario, emerge un interrogativo cruciale: può un’intelligenza artificiale essere titolare di diritti e obblighi giuridici?

Il dibattito sulla personalità giuridica dell’intelligenza artificiale, al contrario di quanto i più possano credere, non è nuovo. Nel lontano 2017 il Parlamento Europeo, nella Risoluzione sulla robotica (2015/2103(INL)) (premere qui per leggere), ipotizzò l’introduzione di una “personalità elettronica” per i robot autonomi. Una proposta veramente interessante ed innovativa, ma che purtroppo è stata in seguito ridimensionata, anche a seguito di critiche provenienti da dottrina, istituzioni e organizzazioni internazionali.

Ed infatti con la Risoluzione del Parlamento Europeo del 20 ottobre 2020 (2020/2014(INL)) (premere qui per leggere) è stato definitivamente chiarito che non è opportuno attribuire personalità giuridica alle intelligenze artificiali, ma che piuttosto, è necessario assicurare che vi sia sempre un soggetto umano o giuridico identificabile — come il produttore, l’operatore o il proprietario — responsabile dei danni provocati dal sistema.

Questo principio si fonda su tre principali esigenze:

  1. la tutela delle vittime – individuare un debitore certo dell’obbligazione risarcitoria;
  2. la chiarezza probatoria – assicurare che sia possibile ricostruire la catena delle responsabilità;
  3. la prevenzione del moral hazard tecnologico – evitare che l’anonimato dell’intelligenza artificiale incentivi comportamenti rischiosi.

Ora, va da sè che se l’intelligenza artificiale non ha personalità giuridica, il contratto di assicurazione non può essere stipulato direttamente a suo nome.
Le polizze per veicoli autonomi dovranno quindi essere sottoscritte da soggetti che ne abbiano la titolarità o il controllo, come il proprietario del veicolo, il gestore della flotta, il fornitore del software (in caso di sistemi forniti “as-a-service”) o l’operatore di back-end responsabile del monitoraggio remoto.

In questo senso, il regime assicurativo dovrà necessariamente coordinarsi con l’Artificial Intelligence Act, che impone obblighi di sicurezza, tracciabilità e sorveglianza umana per i sistemi ad alto rischio, inclusi quelli di guida automatizzata, e con la Direttiva 85/374/CEE sulla responsabilità per danno da prodotti difettosi (la cui revisione per includere proprio i concetti di software e aggiornamenti entrerà in vigore il 9 dicembre 2026).

Ma ci sia concessa una breve riflessione. Attribuire personalità giuridica a un’intelligenza artificiale non sarebbe una mera questione simbolica: comporterebbe il riconoscimento di capacità giuridica (idoneità a essere titolare di diritti e doveri) e, conseguentemente, di capacità processuale (idoneità a stare in giudizio come attore o convenuto). Significherebbe quindi riconoscerle la capacità di essere titolare di patrimoni propri, da cui attingere per risarcire i danni.

In termini concreti, ciò significherebbe che l’intelligenza artificiale disporrebbe di un patrimonio proprio, distinto da quello del produttore o dell’operatore, destinato anche a garantire il risarcimento dei danni. Tale patrimonio potrebbe essere costituito, ad esempio, da fondi vincolati, canoni di utilizzo o altre forme di capitalizzazione. Da qui potrebbero derivare obblighi assicurativi diretti. Cioè un’intelligenza artificiale con personalità giuridica potrebbe essere contraente di una polizza e beneficiaria di coperture proprie, analogamente a una persona giuridica tradizionale (società, ente). Il che porterebbe al concreto vantaggio di una responsabilità patrimoniale diretta, con riduzione del rischio di insolvenza in caso di danno, poiché esisterebbe un patrimonio dedicato, oltre che di unachiarezza nei rapporti assicurativi, in quanto il soggetto responsabile coinciderebbe con il soggetto assicurato, semplificando la gestione del sinistro, e una maggiore certezza giuridica in quanto in questo modo l’intelligenza artificiale diventerebbe un centro autonomo di imputazione di responsabilità, riducendo i conflitti di attribuzione.

Naturalmente tutto ciò aumenterebbe il rischio di “scudo” per produttori e operatori, in quanto attribuire personalità all’intelligenza artificiale potrebbe indurre a limitare la responsabilità dei soggetti umani, lasciando l’intelligenza artificiale formalmente responsabile ma incapace, di fatto, di garantire un risarcimento adeguato, oltre che una difficoltà di capitalizzazione, perché costituire un patrimonio sufficiente per risarcire danni gravi (es. incidenti stradali mortali) potrebbe essere impraticabile senza contributi esterni obbligatori, senza poi considerare quelli che potremmo definiere come problemi di enforcement internazionale, perché la personalità giuridica di un’intelligenza artificiale potrebbe non essere riconosciuta in ordinamenti extra-UE, complicando l’esecuzione delle sentenze.

Tutti problemi risolvibili, sia chiaro, ma purtroppo la tendenza normativa dell’UE è opposta: si preferisce mantenere una responsabilità distribuita lungo la filiera (produttori, integratori, operatori, proprietari), in modo da garantire coperture assicurative più solide e multilivello.

Lo ribadiamo, la linea seguita dalle istituzioni europee — confermata dalla Risoluzione del Parlamento Europeo del 20 ottobre 2020 (2020/2014(INL)) di cui sopra — è di non riconoscere personalità giuridica alle intelligenze artificiali. La priorità è garantire che ci sia sempre un soggetto umano o giuridico tradizionale che risponda dei danni, con un patrimonio e una polizza adeguati.

In prospettiva quindi, questo modello consentirebbe agli assicuratori di strutturare polizze composite, in cui la componente RC auto si integra con coperture di product liability e cyber risk, riflettendo la complessità delle possibili fonti di danno.

Insomma, ci permettiamo concludere che il problema della personalità giuridica dell’intelligenza artificiale resta un tema di teoria del diritto più che di diritto positivo. Del resto è alquanto evidente che per il settore assicurativo, la priorità non è attribuire soggettività a un algoritmo, bensì individuare con certezza i soggetti responsabili e predisporre contratti assicurativi capaci di coprire l’intera gamma dei rischi derivanti dall’automazione.

Per approfonidre:

- M.C. GAETA, Automazione e responsabilità civile automobilistica, in Responsabilità civile e previdenza, 5, 2016; 

- M.C. GAETA, La protezione dei dati personali nell’internet of things: l’esempio dei veicoli autonomi, in Diritto dell’informazione e dell’informatica, 1, 2018;

- H. GREEN, Radio-Controlled Automobile, in Radio News, 1925;

- A. BERTOLINI, Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, in Law, Innovation and Technology, 5, 2013, pp. 225 ss.;

- S. VOLOSOVICH, InsurTech: challeges and development perspectives. in International Journal of Innovative Technologies in Economy, 3, 2016;

- C. CASONATO, Le 3 A di un diritto sostenibile ed efficace, in Biotecnologie e diritto (a cura di V. BARSOTTI), Roma, 2016, pp. 29-53;

- D. CERINI, Dal decreto Smart Roads in avanti: ridisegnare responsabilità e soluzioni assicurative, in Danno e responsabilità, 4, 2018;

- E. PALMERINI, Robotica e diritto: suggestioni, intersezioni, sviluppi a margine di una ricerca europea, in Responsabilità civile e previdenza, 6, 2016;

- P. DE GIOIA CARABELLESE, Unmanned vehicles e rischi legali ed assicurativi. Una visuale dal Regno Unito della disciplina della
responsabilità dei veicoli senza guidatore
, in Diritto e Politica dei Trasporti, 1/2021, pp. 1-10;

- T. DE MARI CASARETO DAL VERME, Rischio da circolazione stradale, R.C. auto e veicoli a guida autonoma, in BioLaw Journal - Rivista di BioDiritto, 3/2023, pp. 275 - 306;

- A. BERTOLINI e M. RICCABONI, Grounding the case for a European approach to the regulation of automated driving: the technology‑selection effect of liability rules, in European Journal of Law and Economics, 51/2021, pp. 243-284.
The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.