L’introduzione e l’uso crescente dell’intelligenza artificiale (AI) nel settore legale australiano stanno suscitando preoccupazioni sempre più gravi tra i tribunali. Sebbene l’AI prometta di rivoluzionare il modo in cui vengono redatti i documenti legali e di semplificare il lavoro degli avvocati, l’uso improprio di strumenti di intelligenza artificiale sta generando nuove sfide, mettendo a rischio l’integrità e l’affidabilità del sistema giuridico.
Una delle principali problematiche riguarda l’impiego di software AI per generare documenti legali che, se non adeguatamente verificati, possono contenere informazioni errate o addirittura falsificate. Un esempio emblematico e recente è il caso di un avvocato che ha utilizzato ChatGPT per redigere una memoria in una causa di immigrazione. Nel tentativo di risparmiare tempo, l’avvocato non ha verificato l’accuratezza delle sentenze giuridiche citate nel documento. Successivamente, il Ministero dell’Immigrazione ha scoperto che ben 17 delle sentenze menzionate non esistevano, evidenziando un serio rischio di disinformazione. Questo episodio ha portato il tribunale a segnalare l’avvocato agli organi di vigilanza professionale, sollevando interrogativi sulla responsabilità degli avvocati nell’utilizzo di queste tecnologie.
Un altro caso preoccupante si è verificato a Melbourne, dove un avvocato ha impiegato un software AI per creare riferimenti giuridici inesistenti in un processo di diritto di famiglia, costringendo il tribunale a rinviare l’udienza. Il problema delle citazioni errate o inventate non riguarda solo i professionisti del settore legale, ma anche i documenti redatti da non professionisti. In alcuni di questi, i giudici hanno notato segni evidenti di testo generato dall’AI, con frasi tipiche dei modelli linguistici generativi. Tali anomalie hanno sollevato ulteriori dubbi sull’affidabilità di questi strumenti, soprattutto quando vengono utilizzati da persone senza esperienza nel campo giuridico.
In risposta a questi sviluppi, il sistema giudiziario australiano sta adottando misure correttive. La Corte Suprema del Nuovo Galles del Sud ha imposto restrizioni all’uso dell’intelligenza artificiale per la redazione di atti giudiziari, cercando di limitare i rischi legati all’uso incontrollato dell’AI in ambito legale. Inoltre, il Consiglio dei Servizi Legali del Victoria ha classificato l’uso improprio dell’AI come un rischio significativo per la professione legale, sottolineando l’importanza di una supervisione rigorosa nell’impiego di queste tecnologie.
Gli esperti concordano sul fatto che il fenomeno non sia legato soltanto a una mancanza di etica professionale, ma anche a una diffusa carenza di formazione sull’uso consapevole di queste tecnologie. Molti avvocati e professionisti legali non sono ancora adeguatamente preparati a gestire gli strumenti di AI, e ciò può portare a un uso irresponsabile che compromette la qualità del servizio legale offerto e la fiducia del pubblico nel sistema giuridico.
L’intelligenza artificiale offre sicuramente vantaggi, ma il suo uso nel settore legale deve essere accompagnato da una formazione adeguata e da una regolamentazione chiara. Solo in questo modo sarà possibile sfruttare il potenziale dell’AI, garantendo al contempo la protezione dell’integrità e della trasparenza del processo legale.
F.C.
Diritto dell’Informazione
“Diritto dell’Informazione: la bussola per orientarsi tra notizie e giurisprudenza”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/