L’I.A. e la privacy dei dati: le insidie del riconoscimento facciale e le nuove sfide normative

Tempo di lettura stimato:3 Minuti, 30 Secondi

L’ intelligenza artificiale sta avendo profonde ripercussioni nell’ambito della protezione dei dati personali. Tra i temi più caldi vi è sicuramente quello del riconoscimento facciale.

Esso ha molte applicazioni pratiche, dalla pubblicità personalizzata alla sicurezza e alla prevenzione delle frodi. Le compagnie aeree, ad esempio, stanno già utilizzando questa tecnologia per rendere più veloce i vari processi di sicurezza aeroportuale per i passeggeri.

Inutile dire che però ci sono molte insidie, oltre che sul fronte privacy, anche su altri piani.

Si pensi ad esempio al caso in cui il proprio volto venga confrontato in massa con migliaia di altri volti. Chiaramente si sarà molto più suscettibili di avere corrispondenze false, e ciò potrebbe portare al verificarsi di ogni tipo di discriminazione, di violazioni di sicurezza e/o di furto di identità.

Allo stato attuale della tecnologia, infatti, il confronto di un volto con una vasta base di dati comporta il rischio di corrispondenze false, in quanto anche piccole differenze nella forma del volto o nella posizione degli occhi possono causare problemi di riconoscimento. Ciò significa che, se un sistema di riconoscimento facciale sta cercando di identificare un individuo in una folla, potrebbe facilmente identificare erroneamente la persona sbagliata, dando luogo a false accuse e discriminazioni.

Inoltre, l’utilizzo di tecnologie di riconoscimento facciale su larga scala aumenta notevolmente il rischio di furto di identità. Se le informazioni biometriche di un individuo dovessero finire in mani sbagliate, ad esempio a seguito di una violazione dei dati, la persona coinvolta potrebbe subire danni significativi, tra cui la possibilità di accesso non autorizzato a conti bancari o ad altre informazioni personali.

Volgendo lo sguardo ai paesi dove l’uso di tali tecnologie è maggiormente diffuso, molte aziende si stanno già confrontando con azioni legali, conseguenze regolamentari e difficoltà nelle pubbliche relazioni. Negli Stati Uniti, ad esempio, il proprietario del Madison Square Garden, è stato recentemente al centro delle cronache per l’uso del riconoscimento facciale per impedire ad un avvocato avversario di partecipare ad un concerto di Mariah Carey. O ancora, la nota catena di farmacie Walgreens ha subito varie azioni legali, oltre che pesanti danni all’immagine da quando ha iniziato a utilizzare il riconoscimento facciale per promuovere i propri annunci pubblicitari in base all’età e al sesso dei clienti.

Il punto qui però, va detto, non è che il riconoscimento facciale rappresenti un particolare problema, ma piuttosto che l’intelligenza artificiale sia entrata con un certo ritardo nell’occhio dei legislatori.

Sul fronte normativo, infatti, alcuni Stati hanno imposto un divieto “temporaneo” all’uso di sistemi di riconoscimento facciale e di altre tecnologie di identificazione biometrica nelle scuole. Ora, sebbene tale divieto rappresenti un passo importante per proteggere la privacy degli studenti e delle loro famiglie, questo carattere di “temporaneità” dato allo stesso la dice lunga sul ritardo che i legislatori hanno accumulato rispetto allo sviluppo tecnologico.

Il tempo va recuperato e, com’è noto infatti, l’Ufficio della politica scientifica e tecnologica della Casa Bianca ha pubblicato la sua bozza per una Carta dei Diritti dell’intelligenza artificiale, inserendo la protezione dei dati tra i suoi cinque principi chiave. L’Unione Europea, dal canto suo, sta invece introducendo la Direttiva sulla responsabilità per l’Intelligenza Artificiale (AI liability directive – AILD) al fine di stabilire regole uniformi per la riparazione dei danni causati dall’intelligenza artificiale.

Ma come detto, il legislatore è (e sarà) sempre in ritardo rispetto alla tecnologia. E questo problema non scomparirà, pertanto le aziende e le amministrazioni pubbliche (ed in particolare le scuole) farebbero bene quindi prepararsi con attenzione all’introduzione di sistemi di intelligenza artificiale:
– conducendo valutazioni d’impatto sulla protezione dei dati (DPIA);
– adottando dei principi Privacy by Design e by Default;
– attuando misure tecniche e organizzative appropriate;
– garantendo la trasparenza e la responsabilità;
– conducendo audit e revisioni regolari.

Sebbene, come abbiamo visto, vi siano evidenti rischi associati ai progetti di intelligenza artificiale in particolare dal punto di vista della protezione dei dati e della discriminazione, è importantissimo però non perdere di vista i vantaggi che questi progetti possono offrire. L’intelligenza artificiale ha il potenziale per migliorare l’efficienza, ridurre i costi e consentire nuove intuizioni e innovazioni.

E’ dunque una potente arma che va usata però con la giusta consapevolezza. E tale consapevolezza va necessariamente acquisita. A tutti i livelli.

The following two tabs change content below.

Nicola Nappi

⚖️ Diritto commerciale, assicurativo, bancario, delle esecuzioni, di famiglia. Diritti reali, di proprietà, delle locazioni e del condominio. IT Law. a Studio Legale Nappi
*Giurista, Master Universitario di II° livello in Informatica Giuridica, nuove tecnologie e diritto dell'informatica, Master Universitario di I° livello in Diritto delle Nuove Tecnologie ed Informatica Giuridica, Corso di Specializzazione Universitario in Regulatory Compliance, Corso di Specializzazione Universitario in European Business Law, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Le procedure di investigazione e di rimozione dei contenuti digitali, Corso di Perfezionamento Universitario in Criminalità Informatica e Investigazioni digitali - Intelligenza Artificiale, attacchi, crimini informatici, investigazioni e aspetti etico-sociali, Master Data Protection Officer, Consulente esperto qualificato nell’ambito del trattamento dei dati.