Un punto di svolta per l’intelligenza artificiale in Europa
La Commissione Europea ha avviato una consultazione pubblica mirata per raccogliere input sul tema più spinoso del nuovo Regolamento (UE) 2024/1689: la classificazione dei sistemi di intelligenza artificiale ad alto rischio. La scadenza per l’invio dei contributi è fissata al 18 luglio 2025.
Il documento oggetto della consultazione, predisposto dall’AI Office della Commissione, costituisce una bozza di lavoro che non anticipa alcuna decisione definitiva. Tuttavia, i suoi contenuti forniscono una traiettoria normativa inequivocabile.
Cos’è un sistema di AI “ad alto rischio”?
Il Regolamento AI adotta un approccio basato sul rischio, distinguendo in particolare tra sistemi:
- art. 6(1): integrati come componenti di sicurezza in prodotti soggetti a regolamentazione UE (macchine, dispositivi medici, ecc.);
- art. 6(2): che, in base allo scopo previsto, possono compromettere diritti fondamentali, salute o sicurezza in otto settori ad alto impatto (es. giustizia, lavoro, infrastrutture critiche).
A queste due categorie si aggiunge l’Art. 6(3), che introduce meccanismi esonerativi per sistemi che, pur operando in ambiti sensibili, non determinano rischi significativi grazie alla loro funzione meramente preparatoria, accessoria o procedurale.
La struttura della consultazione
Il questionario, disponibile esclusivamente in lingua inglese, si articola in cinque sezioni, corrispondenti alle aree centrali dell’AI Act:
- art. 6(1) – Sistemi AI come componenti di sicurezza: analisi della definizione e casistica in relazione alla normativa di armonizzazione UE (Annex I);
- art. 6(2) e (3) – Sistemi AI a rischio per diritti e libertà: focus su Annex III e sulle condizioni di esclusione;
- aspetti generali trasversali: tra cui il concetto di “scopo previsto” (intended purpose);
- obblighi di conformità e gestione lungo la filiera AI: comprensivi di impatto sui diritti fondamentali (Art. 27) e diritto all’informazione (Art. 86);
- possibili modifiche future: aggiornamenti all’Annex III (usi ad alto rischio) e all’Art. 5 (pratiche vietate).
Aspetti critici e punti di riflessione giuridica
1. Ambiguità sulle eccezioni (Art. 6(3))
Molte delle eccezioni previste si prestano a interpretazioni divergenti. Quando un sistema “supporta” la decisione umana e quando la “determina”? La distinzione semantica è sottile ma determinante.
2. Difficoltà di perimetrazione tra pratiche vietate e ad alto rischio
Il confine tra ciò che è vietato (art. 5) e ciò che è solo regolato (art. 6) appare spesso evanescente. In particolare per sistemi di profilazione, riconoscimento biometrico o valutazione comportamentale.
3. Rischi di sovrapposizione normativa
Le interazioni con altre normative europee — dalla GDPR al NIS2, passando per le direttive sulla sicurezza dei prodotti — richiedono chiarimenti sistematici e coordinati.
4. Flessibilità versus certezza del diritto
La previsione di modifiche annuali agli elenchi di Annex III rischia di introdurre un’instabilità per le imprese e i provider, se non accompagnata da linee guida chiare e stabili.
Perché è fondamentale partecipare
Questa consultazione rappresenta un’occasione strategica per tutti gli attori del settore — imprese, avvocati, autorità pubbliche, università, centri di ricerca, società civile — per orientare la futura interpretazione dell’AI Act. Non rispondere equivale a rinunciare a influenzare norme che avranno un impatto diretto su:
- conformità tecnica e documentale;
- responsabilità lungo la catena del valore;
- accessibilità dei sistemi ai mercati europei;
- tutela dei diritti fondamentali degli utenti
Nuove regole del gioco
La posta in gioco non è soltanto regolatoria, ma sistemica. Si tratta di stabilire le regole del gioco per una tecnologia pervasiva. Il futuro dell’intelligenza artificiale nell’Unione Europea sarà sempre più vincolato da obblighi giuridici, e il concetto stesso di “affidabilità” tecnologica sarà codificato in termini legali e operativi.
Partecipare è un dovere. Comprendere è una responsabilità.
📅 Scadenza per la consultazione: 18 luglio 2025
🔗 Link al questionario ufficiale della Commissione
The post Classificare l’intelligenza artificiale ad alto rischio: la nuova consultazione pubblica europea first appeared on Osservatorio Italiano sul Diritto delle Nuove Tecnologie.