Un tema di grande attualità è quello delle applicazioni dell’AI al mondo giuridico. Negli ultimi tempi c’è stato un dibattito continuo sul grado di integrazione che l’intelligenza artificiale può avere nel lavoro. Anche se i report indicano che i livelli di intelligenza del chatbot stanno rapidamente migliorando, gli sviluppatori sono scettici sul fatto che abbia effettivamente il potenziale per sostituire completamente gli esseri umani.
Un avvocato di New York ha trovato in ChatGPT un mezzo per la stesura di un documento legale a difesa del cliente. La vicenda riguarda un uomo che ha citato in giudizio una compagnia aerea dopo essere stato colpito a un ginocchio da un carrello di metallo durante un volo. In risposta al tentativo di archiviare il caso da parte dell’accusato, l’avvocato dell’accusa ha presentato un fascicolo contenente diversi casi analoghi avvenuti in passato.
La ricerca approfondita su casi simili a quello del cliente è stata fatta con ChatGPT. Il risultato è stato un documento di dieci pagine, in cui si citavano almeno una dozzina di casi simili nei quali la conclusione era il risarcimento a favore dell’accusa. Il giudice ha contestato all’avvocato che sei delle sentenze citate erano “fasulle”.
La vicenda rischia di compromettere la reputazione onorabile e trentennale del legale. Per questo l’avvocato ha prontamente dichiarato di non aver avuto alcuna intenzione di ingannare né il giudice né la compagnia aerea, ammettendo di non essere a conoscenza del fatto che i contenuti prodotti dall’intelligenza artificiale fossero falsi.
Ha inoltre affermato di aver chiesto alla chatbot se stesse mentendo e di aver ricevuto come risposta la conferma della veridicità dei fatti che sarebbero stati presenti anche in database legali affidabili. Si è inoltre giustificato dicendo di non aver mai usato questo mezzo prima e ha assicurato che non utilizzerà mai più l’intelligenza artificiale per integrare la sua ricerca senza verificare da altre fonti l’autenticità dei contenuti.
(C.D.G.)