Il G7 fissa principi e codice di condotta per l’uso dell’Intelligenza artificiale

Tempo di lettura stimato:6 Minuti, 6 Secondi

I leader del G7 hanno ratificato nuovi principi globali sull’intelligenza artificiale e un codice di comportamento volontario per l’avanzamento dei sistemi avanzati di IA.

Questi principi e il codice di condotta si collocano all’interno del quadro creato durante il Summit G7 del 19 maggio 2023 a Hiroshima, il quale mira a promuovere misure di sicurezza globale per l’IA di ultima generazione.

Essi costituiranno un complemento alle regolamentazioni proposte dall’Unione Europea sull’IA, arricchendone ulteriormente le norme.

I principi adottati dal G7 offrono linee guida per organizzazioni coinvolte nello sviluppo, diffusione e utilizzo di avanzati sistemi di intelligenza artificiale, inclusi modelli di base e strumenti di IA generativa. L’obiettivo è garantire la sicurezza e l’affidabilità della tecnologia, impegnandosi a mitigare rischi, identificare vulnerabilità, favorire la condivisione responsabile delle informazioni, segnalare incidenti e investire in cibersicurezza. Inoltre, prevedono un sistema di etichettatura per consentire agli utenti di riconoscere i contenuti generati dall’IA.

Questi principi hanno poi servito come fondamento per la formulazione del codice di condotta, il quale fornirà dettagliate e pratiche linee guida alle organizzazioni coinvolte nello sviluppo dell’IA.

Il Codice di condotta volontario mira anche a promuovere una governance globale responsabile dell’IA.

Gli undici principi adottati si concentrano, in particolare, su questi aspetti chiave:

  • Valutazione e mitigazione dei rischi: gli stakeholder sono tenuti a implementare misure adeguate per identificare, valutare e ridurre i potenziali rischi legati all’intelligenza artificiale (IA). Questo processo deve coprire l’intero ciclo di vita dell’IA, compresi lo sviluppo, la distribuzione e l’immissione sul mercato.

  • Misure di test: si richiede l’impiego di varie misure di test, sia interni che esterni, indipendenti, compresi metodi come il “red-teaming”, per identificare le vulnerabilità e i rischi nell’IA.

  • Mitigazione adeguata: le misure di mitigazione dovrebbero essere attentamente implementate per affrontare i rischi e le vulnerabilità rilevate. L’obiettivo è garantire l’affidabilità, la sicurezza e la protezione dei sistemi lungo tutto il loro ciclo di vita, evitando rischi sproporzionati.

  • Tracciabilità e accountability: gli sviluppatori sono incoraggiati a garantire la tracciabilità dei dati, dei processi e delle decisioni prese durante lo sviluppo del sistema, contribuendo a una maggiore responsabilità e comprensione del processo.

Le organizzazioni devono attuare un costante monitoraggio delle vulnerabilità, degli incidenti, dei rischi emergenti e degli utilizzi impropri dei sistemi di intelligenza artificiale, e devono intraprendere azioni adeguate per affrontarli.

È consigliato alle organizzazioni di considerare l’implementazione di strumenti per agevolare la scoperta e la segnalazione di problemi e vulnerabilità da parte degli utenti e di terzi, specialmente dopo la messa in funzione dei sistemi di IA.

È altresì consigliato alle organizzazioni di documentare in modo adeguato gli incidenti riportati e di collaborare con altre parti interessate per mitigare le vulnerabilità e i rischi individuati.

Nei casi appropriati, i meccanismi per la segnalazione delle vulnerabilità dovrebbero essere accessibili a un ampio spettro di parti interessate, promuovendo la trasparenza e la collaborazione.

Le organizzazioni devono garantire la trasparenza comunicando chiaramente le capacità, i limiti e i contesti appropriati e inappropriati per l’utilizzo dei sistemi avanzati di intelligenza artificiale, promuovendo così una maggiore responsabilità.

Questo implica la pubblicazione di report di trasparenza contenenti informazioni rilevanti per ciascun nuovo e significativo rilascio di sistemi avanzati di IA.

Tali report devono presentare informazioni chiare e comprensibili in modo che gli sviluppatori e gli utenti possano interpretare i risultati del modello/sistema e utilizzarli in modo appropriato. È essenziale che questi report siano supportati da processi di documentazione solidi e informati.

Le organizzazioni devono impegnarsi nella promozione di una condivisione responsabile delle informazioni e nella segnalazione degli incidenti con altre entità coinvolte nello sviluppo di sistemi avanzati di intelligenza artificiale, inclusi l’industria, i governi, la società civile e il mondo accademico.

In questo contesto, è fondamentale condividere relazioni di valutazione, informazioni relative ai rischi per la sicurezza e la protezione, capacità potenzialmente pericolose, sia previste che non previste, nonché tentativi di aggirare le misure di sicurezza durante tutto il ciclo di vita dell’IA. Questo approccio mira a promuovere la cooperazione e a migliorare la comprensione comune dei rischi e degli incidenti legati all’IA.

Le organizzazioni devono adottare un approccio basato sul rischio nello sviluppo, implementazione e divulgazione delle politiche di governance dell’intelligenza artificiale e di gestione del rischio. Queste politiche devono coprire aspetti quali la privacy e le misure di mitigazione, con un’enfasi particolare per le organizzazioni coinvolte nello sviluppo di sistemi avanzati di IA.

Questo impegno comprende la divulgazione, quando appropriato, delle politiche sulla privacy, anche per i dati personali, le richieste degli utenti e i risultati dei sistemi avanzati di IA. Le organizzazioni devono anche stabilire e diffondere le proprie politiche di governance dell’IA e i relativi meccanismi organizzativi secondo un approccio basato sul rischio. Questo dovrebbe includere processi di responsabilità e governance per valutare e mitigare i rischi durante l’intero ciclo di vita dell’IA.

È essenziale che le organizzazioni implementino robusti controlli di sicurezza, compresi quelli relativi alla sicurezza fisica, alla cibersicurezza e alle protezioni contro le minacce interne durante l’intero ciclo di vita dell’IA. Questi controlli possono comprendere la protezione dei pesi e degli algoritmi dei modelli, dei server e dei set di dati tramite misure di sicurezza operative e adeguate restrizioni d’accesso informatico e fisico.

Le organizzazioni dovrebbero sviluppare e implementare meccanismi affidabili di autenticazione e di provenienza dei contenuti, come il watermarking o altre tecniche, per consentire agli utenti di identificare i contenuti generati dall’IA. Questi dati di provenienza dovrebbero includere un identificatore del servizio o del modello che ha creato il contenuto, senza necessariamente includere informazioni sull’utente. Inoltre, le organizzazioni dovrebbero cercare di sviluppare strumenti o API che consentano agli utenti di determinare se un determinato contenuto è stato creato con il loro sistema di intelligenza artificiale avanzato, ad esempio attraverso l’uso di filigrane. È anche incoraggiata l’implementazione di altri meccanismi come l’etichettatura o le dichiarazioni di non responsabilità per permettere agli utenti di riconoscere quando interagiscono con un sistema di IA.

È prioritaria la ricerca per mitigare i rischi per la società, la sicurezza e la protezione, e si deve dare importanza agli investimenti in misure di mitigazione efficaci. Questo impegno include la promozione di ricerche che sostengono il progresso della sicurezza, della protezione e della fiducia nell’IA, affrontando i rischi principali e sviluppando strumenti di mitigazione appropriati.

Le organizzazioni dovrebbero dare priorità allo sviluppo di sistemi avanzati di IA per affrontare le principali sfide globali, tra cui la crisi climatica, la salute globale e l’istruzione. Questi sforzi devono sostenere i progressi degli Obiettivi di sviluppo sostenibile delle Nazioni Unite e promuovere lo sviluppo dell’IA a vantaggio della società. Le organizzazioni devono anche concentrarsi sulla gestione responsabile di un’IA affidabile e orientata all’umanità e sostenere l’alfabetizzazione digitale.

È importante promuovere lo sviluppo e, quando appropriato, l’adozione di standard tecnici internazionali. Ciò include la partecipazione allo sviluppo e, quando appropriato, all’uso di standard tecnici internazionali e di migliori pratiche, tra cui il watermarking, nonché la collaborazione con Organizzazioni per lo Sviluppo degli Standard (SDO).

Le organizzazioni devono implementare misure adeguate per la protezione dei dati personali e della proprietà intellettuale durante la raccolta e l’uso dei dati. Inoltre, sono incoraggiate ad adottare misure adeguate per gestire la qualità dei dati, compresi i dati di formazione, al fine di mitigare i pregiudizi dannosi. Dovrebbero altresì garantire la trasparenza dei dati di formazione e rispettare i quadri giuridici applicabili.