1

|

Giuridico

Intelligenza artificiale in tribunale: quando l'avvocato si fida troppo del chatbot

Yellow Flower

Da Avvocato giuslavorista e civilista sono affascinato dal diritto del lavoro, che in Italia è il più "anglosassone" dei diritti: in continuo adeguamento alle mutevoli esigenze della Società, grazie all'incessante lavoro di avvocati e giudici che contribuiscono a creare orientamenti giurisprudenziali capaci di adeguarsi al divenire delle relazioni in campo lavorativo. 

Senza voler contraddire questa piccola premessa, vi propongo un commento a una sentenza — emessa dal Tribunale di Siracusa, sez. II civile, il 20 febbraio 2026, n. 338 — che non afferisce a un rapporto di lavoro, ma tocca un tema vicinissimo alle trasformazioni di cui ho accennato: l'intelligenza artificiale e le responsabilità in cui possono incorrere quei professionisti — non solo del diritto — che ne facciano un uso incauto.


Perché questa sentenza ci riguarda tutti

Esistono pronunce destinate a occupare le prime pagine dei giornali e pronunce che, lontane dai riflettori, dicono cose altrettanto importanti. Questo il caso del provvedimento di cui vi parlo. La fattispecie da cui muove è quella di una lite commerciale. Ma sotto la superficie pone una domanda che riguarda chiunque — avvocato, medico, consulente, giornalista, imprenditore — stia usando, o stia pensando di usare, uno strumento di intelligenza artificiale generativa nel proprio lavoro: fino a dove puoi fidarti di ciò che la macchina ti dice?

La risposta del giudice è scomoda, precisa e — a mio avviso — destinata a fare scuola. 


Quattro sentenze che non esistono: le citazioni giurisprudenziali fantasma

Nel tentativo di contrastare alcune eccezioni, il difensore di una delle parti ha inserito in una delle difese il riferimento a quattro precedenti della Corte di Cassazione, riportandone tra virgolette — secondo l'ordinaria prassi redazionale degli atti forensi — alcuni passaggi asseritamente testuali. I riferimenti erano precisi e formalmente impeccabili: numero di sentenza, sezione, data, e trascrizione letterale di interi passaggi motivazionali.

Il problema è che le vere sentenze, verificate dal Tribunale attraverso il CED della Corte di Cassazione, trattavano materie completamente diverse da quelle citate. In tutti e quattro i casi, i passaggi tra virgolette non trovavano riscontro in alcuna pronuncia reale.

Di fronte a questa scoperta, il Tribunale ragiona sulle possibili spiegazioni. 

Prima ipotesi: un malfunzionamento delle banche dati giuridiche. Scartata. Le banche dati professionali indicizzano provvedimenti autentici: non generano testo, non possono produrre sentenze con numeri, argomenti e virgolettati integralmente inesistenti.

Seconda ipotesi: un errore mnemonico o di trascrizione. Scartata anch’essa. Non si tratta di un refuso o di un riferimento approssimativo, ma di massime costruite ex novo, senza alcuna corrispondenza con i provvedimenti citati.

Terza ipotesi: la fabbricazione deliberata. Scartata per implausibilità pratica. Un avvocato che fabbricasse consapevolmente quattro precedenti inesistenti si esporrebbe a conseguenze disciplinari di estrema gravità, del tutto sproporzionate rispetto a qualsiasi vantaggio difensivo ottenibile. Si tratta di un'ipotesi che, per la sua stessa implausibilità, non può costituire la spiegazione di quanto accaduto.

Rimane un'unica spiegazione razionalmente sostenibile. Ed è quella che il Giudice enuncia con una precisione che merita di essere letta nella sua formulazione originale.

«l'unica ipotesi residua, e al tempo stesso la più compatibile con la fenomenologia concreta del caso, è che il difensore si sia avvalso di uno strumento di intelligenza artificiale generativa senza sottoporre gli output ottenuti alla doverosa verifica sulle fonti primarie.» (Sent. pag. 11) 


Come funzionano i modelli di intelligenza artificiale e perché "allucinano"

Per spiegare come sia potuto accadere ciò che è accaduto, e perché la condotta del difensore integri colpa grave, il Tribunale spiega come funzionano i modelli di intelligenza artificiale generativa. È una pagina che vale la pena di leggere.

I Large Language Models — i sistemi alla base di strumenti come chatgpt, Claude, Gemini e altri — non sono banche dati. Non "sanno" nulla nel senso in cui lo sa un essere umano. Non "ricordano" sentenze. Sono sistemi di generazione automatica del linguaggio: producono sequenze di testo statisticamente plausibili sulla base di miliardi di parametri di addestramento. Costruiscono risposte che suonano vere, non risposte che sono vere.

Questa caratteristica strutturale è alla radice del fenomeno noto come “allucinazione”: la tendenza di questi sistemi a produrre, con sicurezza formale e ricchezza di dettaglio, informazioni false o del tutto inesistenti. Non è malevolenza, non è errore di sistema nel senso tradizionale: è semplicemente ciò che accade quando un meccanismo statistico cerca di riempire uno spazio linguistico senza avere accesso a una base di conoscenza verificata.

Nel campo delle citazioni giuridiche, il rischio è particolarmente insidioso. Se chiedo a un chatbot di intelligenza artificiale «forniscimi precedenti della Cassazione su un determinato tema», il sistema produrrà quasi certamente dei precedenti: completi di numero, data, sezione, e persino di passaggi motivazionali virgolettati che suonano perfettamente autentici. Ma quei precedenti potrebbero non esistere. O potrebbero esistere, ma trattare tutt'altra materia. E il professionista che non verifica sulla fonte primaria rischia di introdurre nel proprio atto dei falsi — senza saperlo, ma con piena responsabilità.

Costituisce ormai fatto notorio — scrive il Tribunale — che i modelli di intelligenza artificiale generativa non costituiscono banche dati giurisprudenziali da cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica. (sempre pag. 11)


La colpa grave del professionista e le conseguenze economiche

Il Tribunale di Siracusa qualifica come colpa grave l'utilizzo acritico di strumenti di intelligenza artificiale senza la doverosa verifica sulle fonti primarie. Un professionista del diritto non può ignorare i limiti strutturali di questi strumenti. Tali limiti sono ampiamente documentati, pubblicamente discussi, e — come rileva il giudice — ormai «fatto notorio».

Le conseguenze economiche sono concrete e significative. In primo luogo, ai sensi dell'art. 96, comma 3, c.p.c., la società difesa dall’incauto professionista viene condannata a pagare al convenuto una somma pari all'intero importo delle spese di lite già liquidate a titolo di risarcimento del danno per lite temeraria. In pratica, la parcella del difensore avversario viene raddoppiata e messa a carico della parte soccombente. In secondo luogo, ai sensi dell'art. 96, comma 4, c.p.c. — norma introdotta dalla riforma Cartabia del 2022 — la stessa parte viene condannata a pagare 2.000 euro alla cassa delle ammende, a ristoro parziale del costo sopportato dalla collettività per un processo inutile.

Il Tribunale calibra quest'ultima sanzione tenendo conto tra l’altro della gravità della condotta: citazioni inesistenti con virgolette che simulano testi autentici.



Riflessioni per il professionista e per il cittadino

Gli strumenti di IA generativa sono entrati nelle abitudini di lavoro di milioni di persone in tutto il mondo, e questo è un fatto irreversibile. Possono essere enormemente utili: aiutano a strutturare idee, a redigere bozze, a sintetizzare documenti complessi, a esplorare argomenti. Ma hanno un limite strutturale che non è destinato a scomparire nel breve periodo: non distinguono il vero dal plausibile. Producono testo convincente, non testo verificato.

Per un avvocato — ma il ragionamento vale per qualsiasi professionista la cui attività si fondi su dati, fatti, precedenti verificabili — questo significa che l'IA può essere un valido strumento di supporto alla redazione, ma non può mai essere la fonte. La verifica rimane un obbligo umano, non delegabile alla macchina. Chi non verifica, si espone non solo all'errore, ma — come dimostra questa sentenza — alla colpa grave e alle sue conseguenze.

Una ulteriore riflessione riguarda la dignità del processo. Ogni citazione falsa introdotta in un atto giudiziario non è soltanto un errore del difensore: è un peso scaricato sul giudice (che deve verificarla), sulla controparte (che deve controdedurvici), sulle cancellerie (che ne gestiscono il fascicolo), e — in ultima istanza — su tutti noi, che finanziamo con le tasse il funzionamento della macchina giudiziaria. Il Tribunale di Siracusa lo dice espressamente: la sanzione alla cassa delle ammende è lì proprio per questo.

La sentenza dimostra che il diritto si sta attrezzando per rispondere alle sfide poste dall'IA. Spetta al professionista — medico, avvocato, consulente, giornalista — la responsabilità di distinguere il plausibile dal vero.

Download

Download