Nella giornata di ieri, 14 novembre 2024 è stato pubblicato il primo schema del Codice di Buone Pratiche in materia di Intelligenza Artificiale Generale (“Codice”), una pietra miliare per la regolamentazione nell’ambito dell’intelligenza artificale generale (premere qui per leggerlo). Questo documento nasce come implementazione dell’AI Act, il quale impone ai fornitori di modelli IA generali obblighi stringenti per garantire trasparenza, sicurezza e conformità normativa. Di seguito, analizziamo i punti salienti del documento, evidenziando i progressi e le questioni aperte.
Intelligenza artificiale generale: oltre l’intelligenza artificiale generativa
Negli ultimi anni, l’attenzione pubblica si è concentrata sull’intelligenza artificiale generativa (modelli di lingua come ChatGPT e similari), una categoria di sistemi che, sfruttando modelli avanzati, è in grado di creare contenuti originali come testi, immagini, musica o video. Ma è fondamentale distinguere questa classe di intelligenza artificiale dall’intelligenza artificiale generale (o forte), un concetto più ampio e complesso, spesso percepito come una tappa futura nello sviluppo delle tecnologie intelligenti.
Cos’è l’intelligenza artificiale generale?
L’intelligenza artificiale generale (in inglese Artificial General Intelligence, AGI) si riferisce a un tipo di intelligenza artificiale capace di comprendere, apprendere e risolvere problemi in modo simile a un essere umano, applicando conoscenze e competenze in contesti molto diversi tra loro. Mentre l’intelligenza artificiale odierna eccelle in compiti specifici – come il riconoscimento di immagini, la generazione di testi o l’analisi di dati – l’intelligenza artificiale generale avrebbe la capacità di:
- generalizzare le conoscenze acquisite in un ambito per affrontare problemi in altri contesti;
- adattarsi autonomamente a nuove situazioni senza richiedere addestramento o istruzioni dettagliate;
- comprendere e replicare processi cognitivi umani, come il ragionamento astratto e la pianificazione a lungo termine.
La differenza fondamentale con l’intelligenza artificiale generativa
Sebbene i modelli di intelligenza artificiale generativa (come quelli utilizzati per creare contenuti creativi o rispondere a domande complesse) siano avanzati, rimangono esempi di intelligenza artificiale specializzata. Questi sistemi:
- sono progettati per eccellere in compiti specifici, come generare linguaggio naturale o immagini;
- si basano su enormi quantità di dati di addestramento, ma non possiedono capacità cognitive trasferibili al di fuori del loro dominio di addestramento;
- mancano di un vero ragionamento autonomo o della capacità di contestualizzare le proprie azioni in senso più ampio.
Al contrario, un’intelligenza artificiale generale sarebbe in grado di operare in assenza di dati espliciti, adattandosi a circostanze completamente nuove, simile al comportamento umano.
Perché l’intelligenza artificiale generale + Importante?
L’intelligenza artificiale generale rappresenta una potenziale rivoluzione tecnologica con implicazioni enormi, ma anche rischi significativi:
- applicazioni trasversali:lLa sua capacità di apprendere autonomamente e risolvere problemi complessi potrebbe trasformare settori come la sanità, l’energia, l’istruzione e la ricerca scientifica;
- sfide etiche e di sicurezza: la creazione di un’intelligenza artificiale generale solleva interrogativi fondamentali su controllo, responsabilità e potenziali conseguenze indesiderate.
Mentre la ricerca nell’intelligenza artificiale generativa continua a spingere i confini delle applicazioni pratiche, lo sviluppo dell’intelligenza artificiale generale rimane una frontiera teorica e sperimentale, che richiede non solo innovazione tecnologica, ma anche regolamentazioni solide e una riflessione etica approfondita.
Un codice proiettato al futuro per un settore in evoluzione
In un siffatto contesto il Codice mira a creare una regolamentazione flessibile ma efficace, capace di adattarsi alla rapida evoluzione tecnologica dell’intelligenza artificiale. Esso è basato su principi di proporzionalità, trasparenza e supporto all’ecosistema di sicurezza di intelligenza artificiale. Tra le sue caratteristiche più importanti:
- strutturazione in misure e sotto-misure, con l’obiettivo di rendere chiari i requisiti per i fornitori;
- adattabilità ai rischi sistemici, differenziando i requisiti per modelli con impatti significativi;
- approccio multilaterale, coinvolgendo stakeholder industriali, accademici e della società civile.
Obblighi per i fornitori di modelli di intelligenza artificiale generale
Tra gli obblighi delineati nel Codice, emergono i seguenti aspetti fondamentali:
1. Trasparenza
I fornitori devono mantenere documentazione aggiornata sia per le autorità che per gli sviluppatori a valle. Nello specifico essa include:
- informazioni sulle architetture e i parametri dei modelli;
- modalità di distribuzione e interazioni hardware/software;
- politiche di utilizzo accettabile, garantendo chiarezza su usi consentiti e vietati.
2. Conformità al diritto d’autore
Il Codice enfatizza il rispetto delle norme europee sul copyright, con specifiche azioni richieste:
- politiche interne di compliance, per garantire il rispetto dei diritti d’autore lungo tutto il ciclo di vita dei modelli;
- diligenza nelle collaborazioni esterne, assicurandosi che i dataset usati rispettino le riserve di diritti;
- esclusione di fonti pirata, evitando il crawling di contenuti non autorizzati.
Gestione e mitigazione dei rischi sistemici
Uno dei temi centrali del Codice riguarda l’identificazione e la gestione dei rischi sistemici legati all’intelligenza artificiale generale, con focus su:
- tipologie di rischi: dalla manipolazione su larga scala alla discriminazione sistemica;
- mitigazioni tecniche: come il rafforzamento della sicurezza, l’adozione di processi di testing avanzati e la protezione delle informazioni sensibili;
- governance interna: l’introduzione di meccanismi di ownership per la gestione dei rischi a livello esecutivo e di consiglio di amministrazione.
Misure specifiche
- Valutazione continua dei rischi: i fornitori devono analizzare costantemente i percorsi di rischio, categorizzando le minacce in base alla gravità e probabilità.
- Collezione di prove: implementazione di metodologie scientifiche rigorose per testare e validare i modelli.
- Rapporti di Sicurezza e Sostenibilità: documentazione dettagliata che guida le decisioni di sviluppo e distribuzione.
Domande aperte e sfide future
Nonostante i progressi, il Codice solleva diverse questioni critiche:
- Definizione dei rischi sistemici: Quali criteri devono essere prioritari per identificare e classificare nuovi rischi?
- Adattamento per PMI: Come garantire che le piccole e medie imprese possano rispettare gli standard senza eccessivi oneri?
- Trasparenza e protezione della proprietà intellettuale: Qual è il giusto equilibrio tra divulgazione pubblica e tutela del segreto industriale?
Insomma, possiamo concludere affermando che il Codice di Buone Pratiche rappresenta un passo significativo verso una regolamentazione responsabile dell’intelligenza artificiale generale nell’Unione Europea. Tuttavia, il successo di questo strumento dipenderà dalla capacità dei legislatori e degli stakeholder di armonizzare le esigenze di innovazione con quelle di tutela dei diritti e della sicurezza. La partecipazione attiva nella fase di consultazione pubblica sarà cruciale per affinare ulteriormente il documento e costruire un futuro sostenibile per l’intelligenza artificiale.
Daniele Giordano
Ultimi post di Daniele Giordano (vedi tutti)
- Protezione dei Dati e Gig Economy: Analisi del Provvedimento del Garante n. 675/2024 su Foodinho e Glovo - Novembre 22, 2024
- Verso una regolamentazione consapevole: analisi del Codice di Buone Pratiche sull’intelligenza artificiale generale - Novembre 15, 2024
- La Direttiva (UE) 2024/2831: un passo avanti per le condizioni di lavoro sulle piattaforme digitali - Novembre 12, 2024
- Domicilio digitale e notifiche telematiche: l’ordinanza n. 28532/2024 della Corte di Cassazione - Novembre 7, 2024
- Il nuovo quadro di protezione dati UE-USA: valutazione critica del rapporto dell’EDPB del 4 novembre 2024 - Novembre 5, 2024