Classificare l’intelligenza artificiale ad alto rischio: la nuova consultazione pubblica europea

Tempo di lettura stimato:3 Minuti, 7 Secondi

Un punto di svolta per l’intelligenza artificiale in Europa

La Commissione Europea ha avviato una consultazione pubblica mirata per raccogliere input sul tema più spinoso del nuovo Regolamento (UE) 2024/1689: la classificazione dei sistemi di intelligenza artificiale ad alto rischio. La scadenza per l’invio dei contributi è fissata al 18 luglio 2025.

Il documento oggetto della consultazione, predisposto dall’AI Office della Commissione, costituisce una bozza di lavoro che non anticipa alcuna decisione definitiva. Tuttavia, i suoi contenuti forniscono una traiettoria normativa inequivocabile.


Cos’è un sistema di AI “ad alto rischio”?

Il Regolamento AI adotta un approccio basato sul rischio, distinguendo in particolare tra sistemi:

  • art. 6(1): integrati come componenti di sicurezza in prodotti soggetti a regolamentazione UE (macchine, dispositivi medici, ecc.);
  • art. 6(2): che, in base allo scopo previsto, possono compromettere diritti fondamentali, salute o sicurezza in otto settori ad alto impatto (es. giustizia, lavoro, infrastrutture critiche).

A queste due categorie si aggiunge l’Art. 6(3), che introduce meccanismi esonerativi per sistemi che, pur operando in ambiti sensibili, non determinano rischi significativi grazie alla loro funzione meramente preparatoria, accessoria o procedurale.


La struttura della consultazione

Il questionario, disponibile esclusivamente in lingua inglese, si articola in cinque sezioni, corrispondenti alle aree centrali dell’AI Act:

  1. art. 6(1) – Sistemi AI come componenti di sicurezza: analisi della definizione e casistica in relazione alla normativa di armonizzazione UE (Annex I);
  2. art. 6(2) e (3) – Sistemi AI a rischio per diritti e libertà: focus su Annex III e sulle condizioni di esclusione;
  3. aspetti generali trasversali: tra cui il concetto di “scopo previsto” (intended purpose);
  4. obblighi di conformità e gestione lungo la filiera AI: comprensivi di impatto sui diritti fondamentali (Art. 27) e diritto all’informazione (Art. 86);
  5. possibili modifiche future: aggiornamenti all’Annex III (usi ad alto rischio) e all’Art. 5 (pratiche vietate).

Aspetti critici e punti di riflessione giuridica

1. Ambiguità sulle eccezioni (Art. 6(3))
Molte delle eccezioni previste si prestano a interpretazioni divergenti. Quando un sistema “supporta” la decisione umana e quando la “determina”? La distinzione semantica è sottile ma determinante.

2. Difficoltà di perimetrazione tra pratiche vietate e ad alto rischio
Il confine tra ciò che è vietato (art. 5) e ciò che è solo regolato (art. 6) appare spesso evanescente. In particolare per sistemi di profilazione, riconoscimento biometrico o valutazione comportamentale.

3. Rischi di sovrapposizione normativa
Le interazioni con altre normative europee — dalla GDPR al NIS2, passando per le direttive sulla sicurezza dei prodotti — richiedono chiarimenti sistematici e coordinati.

4. Flessibilità versus certezza del diritto
La previsione di modifiche annuali agli elenchi di Annex III rischia di introdurre un’instabilità per le imprese e i provider, se non accompagnata da linee guida chiare e stabili.


Perché è fondamentale partecipare

Questa consultazione rappresenta un’occasione strategica per tutti gli attori del settore — imprese, avvocati, autorità pubbliche, università, centri di ricerca, società civile — per orientare la futura interpretazione dell’AI Act. Non rispondere equivale a rinunciare a influenzare norme che avranno un impatto diretto su:

  • conformità tecnica e documentale;
  • responsabilità lungo la catena del valore;
  • accessibilità dei sistemi ai mercati europei;
  • tutela dei diritti fondamentali degli utenti

Nuove regole del gioco

La posta in gioco non è soltanto regolatoria, ma sistemica. Si tratta di stabilire le regole del gioco per una tecnologia pervasiva. Il futuro dell’intelligenza artificiale nell’Unione Europea sarà sempre più vincolato da obblighi giuridici, e il concetto stesso di “affidabilità” tecnologica sarà codificato in termini legali e operativi.

Partecipare è un dovere. Comprendere è una responsabilità.


📅 Scadenza per la consultazione: 18 luglio 2025
🔗 Link al questionario ufficiale della Commissione

The post Classificare l’intelligenza artificiale ad alto rischio: la nuova consultazione pubblica europea first appeared on Osservatorio Italiano sul Diritto delle Nuove Tecnologie.

error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.