Intelligenza artificiale e cybersicurezza: la dichiarazione del G7 e le nuove sfide per il settore finanziario

Tempo di lettura stimato:4 Minuti, 43 Secondi

La recente dichiarazione del Cyber Expert Group del G7 sull’intelligenza artificiale e la cybersicurezza (premere qui per leggere) segna un passaggio cruciale nel dibattito internazionale. Il documento, pubblicato a settembre 2025, non introduce obblighi regolatori, ma delinea con precisione i rischi emergenti e le opportunità legate all’uso di sistemi di intelligenza artificiale avanzata, compresi quelli generativi e agentici, nel settore finanziario.

Intelligenza artificiale come strumento di resilienza e come vettore di rischio

L’intelligenza artificiale è presentata come un’arma a doppio taglio. Da un lato, può rafforzare la resilienza cibernetica, accelerando il rilevamento di anomalie di rete, migliorando le capacità dei Security Operation Center e rendendo più efficiente la gestione delle vulnerabilità. Dall’altro lato, la stessa tecnologia può essere sfruttata da attori malevoli per sviluppare attacchi sofisticati, come phishing iper-personalizzati, malware adattivi e strumenti di exploit automatizzati.

Non meno preoccupanti sono le minacce insite nei sistemi stessi: data poisoning nei dataset di addestramento, vulnerabilità derivanti da prompt injection, nonché rischi di fuga di dati sensibili attraverso interazioni con strumenti pubblici di intelligenza artificiale.

Implicazioni regolatorie e sfide di governance

Il G7 sottolinea che tali dinamiche incidono direttamente sulla stabilità e solidità del sistema finanziario. Le istituzioni devono dunque potenziare le proprie capacità di governo, rafforzare la supervisione e garantire l’allineamento dei modelli di intelligenza artificiale con i principi del secure-by-design.

Viene inoltre richiamata l’attenzione sui rischi di dipendenza da fornitori terzi, in particolare quando i servizi di intelligenza artificiale si concentrano in pochi attori globali. Un incidente cibernetico presso un provider dominante potrebbe propagarsi a catena, con effetti sistemici su più istituzioni finanziarie.

Opportunità e responsabilità

Il documento invita banche, autorità di vigilanza e sviluppatori tecnologici a perseguire un approccio proattivo e responsabile, investendo in sviluppo sicuro di soluzioni di difesa basate su intelligenza artificiale, potenziando le competenze interne e predisponendo piani di risposta agli incidenti capaci di fronteggiare scenari inediti.

La collaborazione pubblico-privata emerge come leva imprescindibile. La condivisione di informazioni, l’aggiornamento dei framework di rischio e il dialogo con il mondo accademico sono indicati come strumenti essenziali per bilanciare innovazione e tutela della stabilità finanziaria.

Una visione strategica per il futuro

La dichiarazione del G7 non si limita a fotografare i rischi, ma pone le basi per una nuova cultura della cybersicurezza, in cui l’intelligenza artificiale viene considerata non solo come oggetto di regolazione, ma anche come risorsa per rafforzare l’integrità del sistema finanziario.

L’invito finale è chiaro: solo un approccio informato, prudente e cooperativo consentirà di massimizzare le opportunità offerte dall’intelligenza artificiale, senza compromettere la fiducia e la resilienza dell’intero ecosistema.


Intelligenza artificiale e cybersicurezza: la prospettiva giuridica europea alla luce della dichiarazione del G7

La dichiarazione del Cyber Expert Group del G7 offre un quadro di ampio respiro sulle sfide e le opportunità che l’intelligenza artificiale pone al settore finanziario. Tuttavia, dal punto di vista giuridico, il documento deve essere letto in parallelo con l’evoluzione normativa europea, in particolare con il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act).

G7 e Unione Europea: due approcci complementari

Il G7, in quanto foro politico e non normativo, ha scelto un linguaggio non prescrittivo, volto a promuovere consapevolezza e cooperazione. Al contrario, l’Unione Europea ha adottato un regolamento vincolante e direttamente applicabile che disciplina l’intero ciclo di vita dei sistemi di intelligenza artificiale, introducendo obblighi stringenti per i fornitori e gli utilizzatori.

Mentre il G7 richiama l’esigenza di una governance flessibile e collaborativa, l’AI Act si concentra su classificazione del rischio, obblighi di trasparenza, requisiti di robustezza e sicurezza. La prospettiva europea appare quindi più prescrittiva, ma al contempo funzionale a garantire un quadro uniforme per tutti gli operatori economici.

Punti di contatto

Diversi profili della dichiarazione del G7 trovano riscontro nell’AI Act. Tra questi:

  • secure by design: principio che permea il regolamento europeo e che impone ai fornitori di adottare misure tecniche e organizzative adeguate già in fase di progettazione;
  • gestione del rischio: entrambi i documenti insistono sulla necessità di sistemi di monitoraggio continuo, logging, auditabilità e tracciabilità dei dati;
  • dipendenza da fornitori terzi: il rischio legato alla concentrazione dei servizi di intelligenza artificiale presso pochi provider globali è tematizzato sia dal G7 che dal legislatore europeo, che sottolinea l’esigenza di garantire resilienza e sostituibilità;
  • competenze e formazione: il deficit di alfabetizzazione digitale viene riconosciuto come uno degli ostacoli maggiori a una governance efficace.

Implicazioni per il settore finanziario

Il settore finanziario europeo si trova ora in una posizione peculiare. Da un lato, deve integrare le raccomandazioni di soft law provenienti da contesti internazionali come il G7; dall’altro, deve conformarsi agli obblighi giuridici stringenti dell’AI Act, spesso con impatti diretti sui sistemi di conformità interna e di supervisione regolatoria.

Questa duplice prospettiva impone alle istituzioni finanziarie un approccio di compliance multilivello, in cui le linee guida sovranazionali vanno tradotte in politiche aziendali coerenti con i vincoli giuridici europei.

Verso una governance integrata

Il nodo centrale resta quello della fiducia: senza adeguate garanzie di sicurezza e trasparenza, l’adozione dell’intelligenza artificiale rischia di erodere la stabilità del sistema finanziario e la stessa legittimazione sociale delle tecnologie emergenti.

In quest’ottica, il dialogo tra soft law internazionale e hard law europea rappresenta una strategia imprescindibile. Il G7 getta le basi di un linguaggio comune, l’Unione Europea traduce tali istanze in obblighi giuridici, mentre le istituzioni finanziarie devono farsi carico di trasformare i principi in prassi operative.

The post Intelligenza artificiale e cybersicurezza: la dichiarazione del G7 e le nuove sfide per il settore finanziario first appeared on Osservatorio Italiano sul Diritto delle Nuove Tecnologie.

error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.