Con l’adozione dell’AI Act il 1° agosto 2024, l’Unione Europea (UE) ha stabilito il primo quadro normativo organico sull’intelligenza artificiale a livello mondiale. Questo provvedimento si inserisce nel contesto di una politica complessiva volta a promuovere un’intelligenza artificiale affidabile e sicura, incoraggiando nel contempo l’innovazione e gli investimenti. Con un approccio uniforme e vincolante, il regolamento risponde all’urgenza di tutelare salute, sicurezza e diritti fondamentali di individui potenzialmente esposti ai rischi connessi a sistemi di intelligenza artificiale ad alto rischio. La regolamentazione definisce anche un limite a pratiche considerate inaccettabili, rafforzando il concetto di giustizia e parità di condizioni per i fornitori di intelligenza artificiale nel mercato interno europeo.
In tale contesto la Commissione Europea nella giornata di ieri, 30 ottobre 2024, ha pubblicato un documento informativo, che illustra alcune delle caratteristiche chiave dei prossimi standard tecnici che supporteranno l’attuazione dell’AI Act (premere qui per leggerlo).
L’importanza degli standard armonizzati
Gli standard armonizzati giocano un ruolo centrale nell’applicazione concreta dell’AI Act. Definiti da organizzazioni di standardizzazione europee come CEN e CENELEC su richiesta della Commissione UE, questi standard fungono da presunzione di conformità per i sistemi di intelligenza artificiale. Ciò significa che gli sviluppatori di sistemi di intelligenza artificiale ad alto rischio, conformi a tali standard, sono considerati automaticamente in linea con i requisiti di legge. Il processo di standardizzazione deve tuttavia ancora essere completato e pubblicato nel Journal ufficiale dell’Unione, un passaggio previsto per il 2026.
Caratteristiche attese degli standard per l’AI Act
Le caratteristiche degli standard che supportano il regolamento europeo sull’intelligenza artificiale devono essere estremamente specifiche e dettagliate. Di seguito, un’analisi delle principali peculiarità e requisiti:
- Rischio e trasparenza nelle interazioni con l’intelligenza artificiale
Gli standard devono prescrivere rigorosi requisiti per il monitoraggio e la registrazione di eventi e prestazioni dei sistemi di intelligenza artificiale, finalizzati alla trasparenza operativa e alla tracciabilità delle decisioni. Questo è essenziale per valutare l’efficacia dei meccanismi di oversight umano, specialmente nei contesti di alto rischio come la sicurezza e i diritti fondamentali. - Gestione del rischio e qualità dei dati
Le norme devono supportare un sistema di gestione del rischio specifico per l’intelligenza artificiale, orientato alla mitigazione degli impatti sui diritti individuali. Questo sistema deve comprendere il monitoraggio continuo della qualità dei dati per evitare bias e distorsioni, elementi particolarmente rilevanti in ambiti dove i dati influenzano direttamente le decisioni di sistema. - Robustezza e sicurezza cibernetica
Gli standard devono assicurare la robustezza dei sistemi di intelligenza artificiale, garantendo che essi mantengano prestazioni affidabili anche in condizioni impreviste o durante attacchi informatici. Le norme devono stabilire misure che coprano specifici attacchi, come il data poisoning o l’evasione del modello. In questo senso, la collaborazione tra le specifiche su robustezza e cybersecurity appare cruciale per una protezione completa. - Conformità attraverso il Quality Management System (QMS)
La gestione della qualità per i sistemi di intelligenza artificiale deve garantire un ciclo di vita completo di conformità, dal design iniziale fino al monitoraggio post-mercato. Questo richiede l’adozione di sistemi di gestione che documentino la rispondenza agli obiettivi di sicurezza previsti dalla normativa, utilizzando standard applicabili già consolidati per altre normative UE sulla sicurezza dei prodotti. - Adattabilità agli avanzamenti tecnologici
Dato il ritmo incalzante dell’evoluzione tecnologica, gli standard devono essere flessibili e aggiornati alle nuove tecniche e ai modelli emergenti, come le architetture di intelligenza artificiale generativa. Tale flessibilità deve consentire l’integrazione delle pratiche all’avanguardia, mantenendo la coerenza con i principi di fondo del regolamento europeo. - Applicabilità intersettoriale
Gli standard dovrebbero contenere requisiti orizzontali per l’intelligenza artificiale che possano essere applicati in diversi settori. Inoltre, standard più dettagliati possono essere sviluppati per specifiche tipologie di sistemi, come quelli di visione artificiale o elaborazione del linguaggio naturale. Questa combinazione garantisce l’adattabilità delle norme per rispondere a rischi specifici senza perdere di vista l’uniformità regolamentare.
Osservazioni finali e prospettive per il futuro
Con un’ampia tabella di marcia standardizzatrice, il Comitato Tecnico Congiunto 21 di CEN-CENELEC ha delineato un percorso per l’armonizzazione dei requisiti chiave dell’AI Act. La sfida risiede nella finalizzazione delle norme in tempi ristretti, con l’obiettivo di pubblicarle entro il 2026, garantendo così alle imprese e agli enti pubblici europei la possibilità di prepararsi adeguatamente. La profondità del consenso tecnico raggiunto nelle attività di standardizzazione e la precisione dei requisiti saranno elementi determinanti per una compliance agevole e concreta, soprattutto per le piccole e medie imprese.
La Commissione Europea, tramite l’AI Office e il Joint Research Centre, continua a supportare attivamente questi sforzi di standardizzazione per consolidare un ecosistema di intelligenza artificiale sicuro, inclusivo e legalmente conforme.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Protezione dei Dati e Gig Economy: Analisi del Provvedimento del Garante n. 675/2024 su Foodinho e Glovo - Novembre 22, 2024
- Verso una regolamentazione consapevole: analisi del Codice di Buone Pratiche sull’intelligenza artificiale generale - Novembre 15, 2024
- La Direttiva (UE) 2024/2831: un passo avanti per le condizioni di lavoro sulle piattaforme digitali - Novembre 12, 2024
- Domicilio digitale e notifiche telematiche: l’ordinanza n. 28532/2024 della Corte di Cassazione - Novembre 7, 2024
- Il nuovo quadro di protezione dati UE-USA: valutazione critica del rapporto dell’EDPB del 4 novembre 2024 - Novembre 5, 2024