Algoritmi e libertà individuale: il nuovo volto del controllo sociale

Tempo di lettura stimato:2 Minuti, 50 Secondi

Nel nome della sicurezza, dell’efficienza e della personalizzazione dei servizi, l’intelligenza artificiale sta ridisegnando i confini tra sfera pubblica e privata. Ma a che prezzo? L’uso crescente di algoritmi predittivi nella gestione dei dati personali ha fatto emergere un inquietante fenomeno: la profilazione automatizzata degli individui non solo per scopi commerciali, ma anche per finalità di controllo sociale, sicurezza pubblica e gestione del rischio.

Secondo l’art. 4 del GDPR, la profilazione consiste in «qualsiasi forma di trattamento automatizzato di dati personali per valutare aspetti personali di una persona fisica, in particolare per analizzare o prevedere comportamento, interessi, salute, affidabilità, movimenti».

Questa pratica, sempre più raffinata grazie a tecniche come la SOCMINT (Social Media Intelligence), consente a enti pubblici e privati di costruire profili comportamentali dettagliati, aggregando le cosiddette digital footprints — le tracce digitali lasciate inconsapevolmente dagli utenti durante la navigazione on-line.

L’obiettivo? Anticipare i comportamenti, influenzare le scelte, esercitare un controllo preventivo.

Il rischio, come bene osserva il Prof. Santosuosso, è che gli algoritmi sostituiscano alla libertà umana una probabilità calcolata: l’individuo viene trattato non per ciò che è o fa, ma per ciò che un modello statistico prevede che potrebbe fare.

Un esempio concreto: se un algoritmo segnala che una persona ha caratteristiche simili a soggetti ritenuti “a rischio”, questa potrebbe subire limitazioni nella concessione di un mutuo, nell’accesso a un lavoro, perfino nella libertà vigilata. Senza possibilità di smentita, di spiegazione, di difesa.

È una forma subdola di determinismo tecnologico, che trasforma la probabilità in destino e nega la possibilità di redenzione o cambiamento.

Il pericolo è acuito dall’opacità tecnica dei sistemi predittivi: spesso basati su modelli di deep learning, questi sistemi non spiegano i criteri decisionali né sono pienamente accessibili all’utente. Il GDPR cerca di colmare questa asimmetria con prescrizioni su trasparenza, diritto di opposizione e valutazione d’impatto, ma i limiti strutturali restano.

L’utente, in molti casi, non sa di essere profilato, e se lo scopre, non sa come difendersi.

Nel contesto europeo, la Carta etica della CEPEJ e la Convenzione n. 108 del Consiglio d’Europa richiamano con forza la necessità di garantire i diritti fondamentali contro ogni abuso algoritmico, prevedendo meccanismi di audit, supervisione e controllo umano sulle decisioni automatizzate.

In particolare, è necessario riconoscere il diritto all’autodeterminazione informativa, come proiezione della dignità umana digitale, evitare che le decisioni aventi effetti giuridici siano affidate esclusivamente all’intelligenza artificiale (art. 22 GDPR) e garantire il principio di non discriminazione nei trattamenti automatizzati.

Ma l’intelligenza artificiale non è una semplice tecnologia: è un costrutto normativo e sociale, che riflette e amplifica le intenzioni dei suoi programmatori. Chiaramente se non correttamente regolata, essa può divenire strumento di sorveglianza predittiva e controllo sociale, compromettendo le libertà fondamentali in nome della sicurezza o dell’efficienza.

E oggi allora non è più così distopico affermare che è ormai giunto il tempo di una nuova stagione giuridica: una stagione in cui la libertà non sia solo un valore costituzionale, ma anche un parametro algoritmico.

Per approfondire:

- G. SARTOR - A. SANTOSUOSSO, Giustizia predittiva: una visione realistica, in Giurisprudenza Italiana, 2022, p. 1760 ss.;

- M. IASELLI, Le profonde implicazioni di carattere etico e giuridico dell’intelligenza artificiale, in Democrazia e Diritti Sociali, 2020, pp. 90-101;

- C.E.P.E.J., Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari, Strasburgo, Consiglio d’Europa, 2018.
The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.
error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.