Il Codice di condotta per i modelli di intelligenza artificiale ad uso generale (GPAI Code of Practice – premere qui per leggere), pubblicato il 10 luglio 2025, rappresenta un tassello strategico nell’attuazione dell’AI Act. Elaborato da esperti indipendenti in un processo multi-stakeholder, costituisce uno strumento volontario, concepito per aiutare l’industria a rispettare gli obblighi giuridici previsti per i fornitori di modelli ad uso generale.
L’adesione al Codice consente ai provider di dimostrare in maniera semplificata la conformità alle disposizioni dell’AI Act, riducendo l’onere amministrativo e rafforzando la certezza giuridica. La Commissione europea e l’AI Board ne hanno confermato l’adeguatezza quale mezzo volontario di compliance.
Un percorso volontario ma vincolante sul piano reputazionale
I fornitori che decidono di sottoscrivere il Codice compilano un Signatory Form e lo trasmettono all’AI Office. L’adesione comporta l’impegno a rispettare i tre capitoli che compongono il documento: Trasparenza, Copyright e Sicurezza e protezione.
I capitoli su Trasparenza e Copyright sono obbligatori per tutti i provider che intendano avvalersi del Codice come strumento di conformità rispetto all’articolo 53 AI Act;
Il capitolo su Sicurezza e protezione riguarda invece solo i fornitori dei modelli più avanzati, quelli rientranti negli obblighi aggiuntivi dell’articolo 55 AI Act, relativi al rischio sistemico.
I tre capitoli del Codice
Trasparenza
Il capitolo sulla Trasparenza mette a disposizione un Model Documentation Form, concepito per facilitare la raccolta e la condivisione delle informazioni richieste dal regolamento. Lo strumento consente ai provider di documentare in maniera uniforme le caratteristiche dei modelli, garantendo chiarezza verso l’AI Office, le autorità nazionali e i soggetti downstream che integrano i modelli in sistemi ad alto rischio.
Copyright
Il capitolo sul Copyright propone misure pratiche per assicurare l’osservanza del diritto d’autore europeo. Tra queste, l’adozione di una copyright policy interna, il rispetto delle riserve di diritti espresse in forma machine-readable e l’implementazione di meccanismi per ridurre il rischio che i modelli producano output lesivi di opere protette.
Sicurezza e protezione
Il capitolo sulla Sicurezza e protezione è destinato ai fornitori di modelli con rischi sistemici. Viene richiesto lo sviluppo di Framework di sicurezza, la predisposizione di valutazioni di rischio lungo l’intero ciclo di vita del modello, l’adozione di misure di mitigazione e il reporting di incidenti gravi. Si tratta di un corpus più tecnico e selettivo, pensato per i modelli più potenti e impattanti sul mercato.
I primi firmatari
Già numerosi operatori globali e regionali hanno aderito al Codice, tra cui Amazon, Microsoft, Google, IBM, Anthropic, OpenAI, Mistral AI, Aleph Alpha, Cohere e molte altre realtà tecnologiche. Interessante notare che xAI ha sottoscritto esclusivamente il capitolo su Sicurezza e protezione, impegnandosi a dimostrare la conformità in materia di trasparenza e copyright attraverso strumenti alternativi.
The post Codice di Condotta per i Modelli di Intelligenza Artificiale ad Uso Generale: uno strumento volontario per sicurezza, copyright e trasparenza first appeared on Osservatorio Italiano sul Diritto delle Nuove Tecnologie.

