Negli ultimi due anni, l’Intelligenza Artificiale ha fatto il suo ingresso anche nelle aule di giustizia e non sempre con esiti positivi. Sono già quasi 90 i casi documentati a livello internazionale in cui l’uso improprio di strumenti basati su AI ha portato alla presentazione di precedenti giuridici inesistenti, numeri di fascicoli falsi e citazioni totalmente inventate. A raccoglierli è Damien Charlotin, ricercatore esperto di diritto empirico, che sta costruendo un database pubblico a partire da decisioni e interventi formali dei giudici.
I paesi più colpiti? Stati Uniti e Israele, complice l’ampia disponibilità di dati giuridici pubblici. A incappare più spesso nelle trappole dell’AI sono cittadini che decidono di auto-rappresentarsi in tribunale, privi di strumenti adeguati per verificare la validità delle fonti, ma anche avvocati e consulenti, attratti dalla velocità con cui i chatbot sfornano argomentazioni su misura.
Le conseguenze vanno da semplici ammonimenti a sanzioni salate: nel Regno Unito una parte è stata condannata a pagare oltre 24mila sterline per aver presentato 25 precedenti fittizi; in Israele, un avvocato ha dovuto pagare oltre 5mila euro tra sanzioni e spese per aver usato decisioni false in un processo familiare. Negli Stati Uniti, invece, un esperto è stato escluso da un procedimento per aver compromesso la propria credibilità con riferimenti inesistenti.
La dinamica è chiara: i modelli linguistici generano testi coerenti, ma non verificano la veridicità delle informazioni. Prevedono semplicemente la parola più probabile, non la più corretta. Questo problema è aggravato dalla pressione che caratterizza molti studi legali, dove il lavoro di ricerca giurisprudenziale viene spesso affidato a figure junior con poco tempo a disposizione e molte aspettative da soddisfare.
L’automatismo nell’uso delle fonti, l’eccessiva fiducia nel linguaggio formale e la scarsa abitudine a interrogare criticamente ciò che sembra “ben scritto” aprono la strada a errori sistemici. L’AI, in questo senso, non ha creato il problema: lo ha solo accelerato.
I chatbot, in sintesi, sono progettati per dare risposte, non per dire la verità.
Quando l’argomentazione diventa automatica e il controllo si affida al plausibile anziché al verificato, il diritto smette di essere ricerca della verità e diventa una finzione ben formattata. E a quel punto non è l’AI a sbagliare: siamo noi ad averle ceduto, senza riserve, il beneficio del dubbio.
A.C.