blue bright lights

Intelligenza artificiale, manipolazione e sorveglianza: le (preoccupanti) verità emerse dalla consultazione pubblica UE

Tempo di lettura stimato:3 Minuti, 0 Secondi

Introduzione

Nel cuore del dibattito europeo sull’intelligenza artificiale, si colloca un nuovo documento cruciale: la relazione finale redatta dal CEPS per conto della Commissione Europea a seguito della consultazione pubblica sull’ AI Act. Questo studio (premere qui per leggere) getta luce sulle preoccupazioni sistemiche sollevate da stakeholder provenienti da industria, accademia, autorità pubbliche e società civile, offrendo uno spaccato veritiero e disilluso delle criticità che ancora affliggono la normativa U.E. sull’intelligenza artificiale.


Definizione di sistema di intelligenza artificiale: ambiguità tecniche e rischi regolatori

La definizione di “sistema di intelligenza artificiale” contenuta all’art. 3 del Regolamento 2024/1689 appare ancora troppo ampia. I partecipanti alla consultazione chiedono chiarimenti sui concetti di autonomia, inferenza e adattabilità, elementi che rischiano di includere anche software tradizionali (es. sistemi a regole fisse, regressioni lineari) che non possiedono alcuna capacità di apprendimento automatico.

Senza una delimitazione semantica rigorosa, si rischia l’overinclusione normativa: ciò avrebbe effetti paralizzanti per le PMI e determinerebbe un aggravio ingiustificato di adempimenti regolatori su soluzioni informatiche prive di qualsiasi rischio sistemico.


Pratiche vietate: la zona grigia del manipolatorio e del subliminale

L’art. 5 AI Act elenca le pratiche espressamente vietate, tra cui l’uso di tecniche subliminali o manipolative in grado di causare danni significativi. Eppure, i risultati della consultazione mostrano una diffusa incertezza semantica. Termini come manipolazione, danno significativo e distorsione materiale del comportamento risultano nebulosi e soggetti a interpretazioni arbitrarie.

I partecipanti invocano esempi pratici, soglie oggettive e casi guida, soprattutto in contesti ad alta sensibilità sociale come il marketing comportamentale e la profilazione psicometrica.


Social scoring, riconoscimento emozionale e sorveglianza biometrica: i tre assi del rischio sistemico

Tre ambiti emergono come i più controversi e potenzialmente lesivi dei diritti fondamentali:

  1. Social scoring: il caso olandese del “Toeslagenaffaire” è diventato esemplare. Algoritmi pubblici hanno categorizzato intere fasce di cittadini (soprattutto stranieri) come “a rischio frode”, determinando gravi discriminazioni e ritorsioni sociali.
  2. Emotion AI: numerosi sistemi, utilizzati in contesti educativi o aziendali (come HireVue o Rosalyn), monitorano stress, attenzione e coinvolgimento degli utenti. La mancanza di validità scientifica e l’asimmetria informativa rendono queste applicazioni altamente intrusive e potenzialmente discriminatorie.
  3. Riconoscimento biometrico in tempo reale: l’uso diffuso da parte di forze dell’ordine di strumenti come Clearview AI o ShotSpotter evidenzia l’urgenza di regole chiare sul concetto di “luoghi pubblicamente accessibili” e sull’eccezione per i fini di sicurezza. Il rischio di normalizzazione della sorveglianza di massa è concreto.

La tensione normativa con GDPR e altre regolazioni UE

L’interazione tra AI Act e GDPR rappresenta un nodo giuridico irrisolto. In particolare, la gestione dei dati biometrici e sensibili da parte dei sistemi di intelligenza artificiale pone problemi di compatibilità, trasparenza e minimizzazione dei dati. Molti stakeholder chiedono l’elaborazione di linee guida interpretative comuni, onde evitare contraddizioni applicative e duplicazioni regolatorie.


L’iniquità strutturale nella consultazione: la voce dei cittadini è marginale

Solo il 5,74% dei rispondenti alla consultazione era costituito da semplici cittadini. Il 47% proveniva da soggetti industriali e tecnici. La sproporzione tra chi progetta l’intelligenza artificiale e chi ne subisce gli effetti è allarmante. Il rischio di una regolazione catturata dagli interessi di parte, anziché guidata dalla tutela dei diritti fondamentali, non è affatto remoto.


Verso una governance etica e tecnicamente solida dell’intelligenza artificiale

Il rapporto CEPS rappresenta un monito preciso alla Commissione Europea: è urgente colmare le lacune definitorie, garantire certezza del diritto e proteggere efficacemente i soggetti vulnerabili. L’adozione del Regolamento AI non deve trasformarsi in un simulacro regolatorio, bensì in un perno autentico di legalità algoritmica, capace di coniugare innovazione e dignità umana.

error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.