L’Intelligenza Artificiale viene sempre più utilizzata nel settore legale australiano. Questo sta diventando un problema per i tribunali poiché gli avvocati stanno sempre di più elaborando documenti che presentano citazioni giuridiche inesistenti generate dall’AI.
Recentemente un legale ha utilizzato ChatGPT per redigere i documenti necessari per una causa di immigrazione, però non ha controllato l’accuratezza delle sentenze citate, dopo di che ha inviato tutto al Ministero dell’Immigrazione. Il Ministero ha poi scoperto che le 17 sentenze menzionate non esistevano.
Un avvocato di Melbourne è stato segnalato all’ente disciplinare poiché ha utilizzato l’AI per cercare dei riferimenti giuridici, da usare per il suo processo, e che risultavano inesistenti.
È stato anche scoperto che i software di AI vengono utilizzati da persone non professioniste per generare le loro dichiarazioni testimoniali. Si è riuscito a scoprire tutto ciò perché sono stati notati degli elementi tipici dei testi generati dai modelli generativi.
Il sistema giudiziario australiano sta piano piano correndo ai ripari per risolvere questa situazione.
La Corte Suprema del Nuovo Galles del Sud ha imposto restrizioni sull’uso dell’AI per la redazione di atti giudiziari, mentre il Consiglio dei servizi legali del Victoria ha classificato l’uso improprio dell’AI come un rischio significativo per la professione.
Secondo gli esperti l’utilizzo dell’AI non è dovuto solo ad una scarsa etica professionale, ma soprattutto a una mancanza di formazione nell’argomento delle nuove tecnologie.
S.P.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/