L’intelligenza artificiale generativa a servizio degli avvocati

Tempo di lettura stimato:3 Minuti, 52 Secondi

Visti gli ultimi sviluppi del procedimento di approvazione dell’AI Act (premere qui per leggere), ed il crescente interesse verso le tematiche sottese, che inevitabilmente si concentra verso la c.d. “intelligenza artificiale generativa”, si rende necessario porre in evidenza una serie di principi che la Commissione Nuove Tecnologie della FBE (Fédération des Barreaux d’Europe) ha elaborato e pubblicato in un documento contenente sostanzialmente quei principi etici e professionali che gli avvocati dovrebbero rispettare ogni qual volta interagiscono con sistemi di intelligenza artificiale

Va innanzitutto premesso che la peculiarità dei sistemi di intelligenza artificiale generativa risiede nella loro propensione a produrre risposte, anche mediante l’invenzione. In altre parole, un qualunque sistema di intelligenza artificiale generativo nel fornire una risposta ben potrebbe inventare completamente i contenuti, senza basarsi su dati reali. Pertanto, quando un sistema genera un output non basato su dati reali, le persone possono erroneamente considerarlo accurato e pertinente, alimentando il c.d. effetto Barnum, alla stregua di quanto avviene mediamente con l’oroscopo. Ad esempio, se un oroscopo afferma che una persona di un certo segno zodiacale è decisa e meticolosa, è probabile che quest’ultima creda a tale descrizione, anche se priva di fondamento reale.

Ma un conto è che tali sistemi vengano utilizzati per curiosità o per diletto,  ben altro conto è quando vengano invece utilizzati da professionisti per tutelare gli interessi legali dei propri assistiti. Da qui discende l’esigenza per gli avvocati di conformarsi alle richiamate raccomandazioni, il che aiuterebbe loro a evitare o riconoscere le cc.dd. allucinazioni e a prevenire il c.d. “effetto Barnum”.

Giova precisare allora che le allucinazioni si configurano come un fenomeno nel quale un sistema di intelligenza artificiale genera un risultato non basato su dati reali, producendo un output privo di senso o del tutto impreciso. Tale fenomeno può derivare da varie cause, tra cui dati di addestramento di scarsa qualità, che influenzano la precisione e la pertinenza degli output, nonché da istruzioni imprecise, errate o incomplete fornite dall’utente.

L’effetto Barnum, invece, rappresenta un fenomeno psicologico determinato dalla tendenza delle persone a considerare accurata e rilevante una descrizione generica o vaga che, pur sembrando specifica e personalizzata, è in realtà congruente con le loro aspettative. Le allucinazioni generiche dell’intelligenza artificiale possono essere assimilate a una forma di effetto Barnum. Esso si configura come particolarmente insidioso per l’utente, in quanto può facilmente spingerlo a prendere decisioni errate o non informate. Pertanto, è cruciale che l’utente tenga presente che le descrizioni e gli output generici non sono necessariamente accurati o pertinenti

Ed allora, le raccomandazioni della Commissione Nuove Tecnologie della FBE per gli avvocati possono essere riassunte nei seguenti punti:

  1. Comprendere il funzionamento dell’intelligenza artificiale generativa: questa raccomandazione sottolinea l’importanza per gli avvocati di acquisire una conoscenza approfondita sulle caratteristiche e il funzionamento degli algoritmi generativi. Questo permette loro di comprendere meglio le risposte fornite dai sistemi di intelligenza artificiale e di valutarne la validità nel contesto legale.
  2. Riconoscere le limitazioni e il contesto in cui operano i sistemi di intelligenza artificiale: Gli avvocati devono essere consapevoli delle limitazioni intrinseche dei sistemi di intelligenza artificiale e considerare il contesto in cui operano. Questo implica una valutazione critica delle risposte fornite e una comprensione delle circostanze in cui l’IA può essere più o meno affidabile.
  3. Rispettare le regole vigenti sull’utilizzo dell’intelligenza artificiale: l’adeguamento alle normative vigenti è fondamentale per garantire la conformità legale nell’utilizzo di sistemi di intelligenza artificiale. Gli avvocati devono essere a conoscenza delle leggi e dei regolamenti che disciplinano l’impiego di tali tecnologie nel loro settore di competenza.
  4. Integrare gli output forniti con la competenza giuridica: questa raccomandazione sottolinea l’importanza di combinare le risposte dell’intelligenza artificiale con la competenza legale dell’avvocato. L’IA può fornire informazioni utili, ma l’interpretazione e l’applicazione di tali informazioni richiedono l’esperienza e la comprensione specifica del professionista del diritto.
  5. Rispettare il segreto professionale: la protezione del segreto professionale è una priorità assoluta per gli avvocati. Nell’uso di sistemi di intelligenza artificiale, è cruciale garantire che le informazioni sensibili siano trattate con riservatezza assoluta e nel rispetto delle normative legali in materia di privacy.
  6. Garantire la protezione dei dati personali e della privacy: la sicurezza e la tutela dei dati personali sono imperativi. Gli avvocati devono adottare misure adeguate per garantire che le informazioni confidenziali siano protette durante l’interazione con sistemi di intelligenza artificiale.
  7. Informare il cliente in caso di utilizzo di sistemi di intelligenza artificiale e assumersi la responsabilità associata: la trasparenza è fondamentale nell’uso di tecnologie avanzate. Gli avvocati devono informare i propri clienti sull’impiego di sistemi di intelligenza artificiale, spiegando il ruolo di tali tecnologie nella consulenza legale e assumendosi la responsabilità per le decisioni basate su tali informazioni.