3 errori fatali degli atti giudiziari scritti con intelligenza artificiale

Tempo di lettura stimato:5 Minuti, 5 Secondi

Quando il ricorso diventa un “coacervo”: la severa lezione del Tribunale di Torino

Nel dibattito contemporaneo sul rapporto tra professioni giuridiche e tecnologie digitali, un tema emerge con crescente evidenza: l’utilizzo degli strumenti di intelligenza artificiale nella redazione degli atti giudiziari.

La questione non è soltanto tecnica. È profondamente giuridica.

Una recente decisione del Tribunale di Torino, la n. 2120 del 16/09/2025, offre un esempio emblematico delle conseguenze che possono derivare da un uso superficiale di tali strumenti. La pronuncia affronta direttamente il problema e formula una critica esplicita al ricorso redatto “con il supporto dell’intelligenza artificiale”.

La sentenza non si limita a rigettare la domanda. Va oltre. Sanziona la condotta processuale della parte attrice, evidenziando una degenerazione qualitativa della difesa giudiziale.


Il fatto processuale: un’opposizione ritenuta manifestamente infondata

La controversia nasce da un’opposizione proposta dinanzi al Tribunale di Torino contro un’ingiunzione di pagamento fondata su diversi avvisi di addebito.

La parte ricorrente sosteneva di non essere debitrice delle somme richieste. Venivano sollevate varie eccezioni:

  • decadenza dal potere impositivo;
  • incompetenza territoriale;
  • vizi di sottoscrizione degli atti;
  • mancata indicazione del criterio di calcolo degli interessi;
  • prescrizione dei crediti;
  • inesistenza delle notifiche.

Tuttavia, l’impostazione difensiva si è rivelata fragile.

Il giudice ha ritenuto tutte le censure tardive o infondate, rilevando che gli avvisi di addebito erano stati notificati regolarmente e non erano stati impugnati nel termine previsto di quaranta giorni.

La conseguenza è stata netta: il ricorso è stato integralmente rigettato.


La critica del giudice: un ricorso costruito con citazioni astratte

Il passaggio più significativo della sentenza riguarda però la qualità dell’atto introduttivo.

Secondo il Tribunale, il ricorso era costituito da una mera elencazione di precedenti giurisprudenziali e norme, priva di collegamento con la fattispecie concreta.

Il giudice sottolinea un principio elementare del processo civile e cioè che contestare una notifica non significa elencare in astratto i possibili vizi, ma indicare quale specifico difetto abbia colpito quel determinato procedimento notificatorio.

In assenza di tale allegazione concreta, la censura diventa irrilevante.

La difesa deve sempre mantenere un legame stretto con la vicenda processuale. Quando questo collegamento si spezza, l’atto perde valore giuridico.


Il punto centrale: l’uso improprio dell’intelligenza artificiale

La sentenza contiene un passaggio destinato a far discutere.

Il Tribunale afferma infatti che il ricorso era stato redatto “col supporto dell’intelligenza artificiale” e appariva come: un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti.

Questa osservazione assume un rilievo particolare.

Non si tratta di una censura ideologica verso la tecnologia. Il giudice non condanna l’uso dell’intelligenza artificiale in sé, ma la critica riguarda piuttosto la delega acritica dello sforzo argomentativo.

L’atto processuale è il prodotto di una costruzione logica, deve essere calibrato sul caso concreto, e l’avvocato deve selezionare le fonti rilevanti.

Quando tali operazioni vengono sostituite da un collage automatizzato di citazioni, l’argomentazione giuridica si dissolve.


Le conseguenze processuali: la condanna per lite temeraria

La valutazione del giudice non si è limitata al rigetto della domanda.

Il Tribunale ha ritenuto che la parte ricorrente avesse agito con malafede o quantomeno con colpa grave.

Di conseguenza è stata applicata la disciplina della responsabilità aggravata prevista dall’art. 96 c.p.c.

La pronuncia assume quindi un valore simbolico.

L’uso superficiale degli strumenti digitali non costituisce una giustificazione processuale.


Intelligenza artificiale e professione forense: una riflessione necessaria

La decisione del Tribunale di Torino si inserisce in un fenomeno più ampio.

Gli strumenti di intelligenza artificiale stanno entrando stabilmente nella pratica legale. Possono supportare la ricerca giurisprudenziale. Possono accelerare la redazione degli atti. Possono persino suggerire strutture argomentative.

Ma esiste un limite invalicabile.

La responsabilità dell’atto resta integralmente in capo al professionista.

Il diritto non è una sequenza di citazioni, è un’arte interpretativa, è una disciplina cioè che richiede selezione, pertinenza e logica.

Quando queste qualità vengono meno, anche l’atto più ricco di riferimenti normativi diventa giuridicamente sterile.


Una lezione per l’avvocatura

La sentenza torinese rappresenta dunque un monito.

L’intelligenza artificiale può essere un potente strumento di supporto. Non può però sostituire la valutazione critica dell’avvocato.

Il rischio non è tecnologico. È metodologico.

Nel processo civile, la qualità dell’argomentazione resta il vero discrimine tra una difesa efficace e un ricorso destinato al rigetto.

La pronuncia del Tribunale di Torino consente quindi, e veniamo al dunque, di isolare tre errori ricorrenti che emergono quando l’intelligenza artificiale viene utilizzata senza un adeguato controllo professionale.

Il primo errore è l’astrattezza delle argomentazioni.
Nel caso esaminato, il ricorso si limitava ad elencare principi giurisprudenziali e disposizioni normative senza alcuna connessione con la vicenda concreta. Nel processo civile questo approccio è sterile. La difesa deve sempre dimostrare come la norma si applica al caso specifico. Senza tale passaggio, l’argomentazione resta teorica e il giudice non può che considerarla irrilevante.

Il secondo errore è l’assenza di una struttura logica.
Il giudice ha evidenziato come l’atto fosse costituito da un insieme disordinato di citazioni e riferimenti normativi. Un atto processuale, invece, richiede una costruzione rigorosa: esposizione dei fatti, individuazione delle questioni giuridiche, applicazione delle norme e conclusioni coerenti. Quando questa architettura manca, anche i riferimenti giurisprudenziali più autorevoli perdono valore.

Il terzo errore è la delega acritica alla tecnologia.
L’intelligenza artificiale può assistere nella ricerca e nella redazione. Tuttavia non può sostituire il giudizio professionale dell’avvocato. L’atto giudiziario resta un prodotto intellettuale che richiede selezione delle fonti, valutazione critica e adattamento al caso concreto. Quando tali attività vengono abdicate, il rischio è quello evidenziato dalla sentenza torinese: un atto formalmente ricco ma giuridicamente inconsistente.

La lezione è chiara. L’intelligenza artificiale può rappresentare un prezioso strumento di supporto per l’avvocatura contemporanea. Non può però diventare il sostituto dell’argomentazione giuridica. Nel processo, la qualità della difesa continua a dipendere dalla capacità dell’avvocato di trasformare le norme in ragionamento e il ragionamento in persuasione.

The post 3 errori fatali degli atti giudiziari scritti con intelligenza artificiale first appeared on Osservatorio Italiano sul Diritto delle Nuove Tecnologie.

error: Misure tecnologiche di protezione attive ex art. 11 WIPO Copyright Treaty, §1201 del DMCA, art. 6, dir. 29/2001/CE, art. 102-quater, l. 22 aprile 1941, n. 633, art. 171-ter, l. 22 aprile 1941, n. 633.