In che modo l’intelligenza artificiale può aiutare gli avvocati nel corretto svolgimento
della professione?
Credo che le possibili forme di impiego dell’intelligenza artificiale in uno studio legale siano
le più disparate e che, anzi, probabilmente, ce ne siano di oggi inimmaginabili.
Stando a quello che oggi si può ipotizzare credo si vada dalle più elementari alle più
complesse. Le prime vanno dal riassunto di opinioni dottrinarie e giurisprudenziali, alla ricerca,
passando per il supporto nella redazione e traduzione di ogni genere di documento legale.
Le seconde, già oggi, permettono, certamente, l’analisi artificialmente intelligente di casi
elementari e ricorrenti e la generazione, completamente automatizzata, di taluni atti.
Credo, però, che una delle funzionalità più preziose dell’intelligenza artificiale in Studio
possa essere rappresentata dalla capacità predittiva rispetto all’esito di specifiche
fattispecie: come finirà una lite davanti al Tribunale di Milano o alla Corte d’Appello di
Roma, come si pronuncerà la Corte di Cassazione, in che misura saranno determinati
assegni di mantenimento o risarcimento dei danni, quanti mesi serviranno per la sentenza
di primo grado o per quella di secondo davanti a questo o quel giudice.
Forme di impiego di questo genere potrebbero produrre risultati straordinari sia per i
clienti, sia per il sistema giudiziario nel suo complesso perché potrebbero avere una
grande efficacia deflattiva e spingere le parti a preferire accordi e transazioni: inutile
iniziare una lite, specie in materia civile o amministrativa, se se ne conosce con
ragionevole probabilità l’esito e, allo stesso tempo, inutile resistere.
Ma, come detto, la mia sensazione è che siamo solo all’inizio.
Crede che l’intelligenza artificiale sia una forte minaccia per la tutela dei nostri dati
personali?
Si. È l’altra faccia della medaglia rispetto a applicazioni tecnologiche che promettono
benefici straordinari per l’intera umanità in ambiti e settori diversissimi, giuridico e
giudiziario inclusi.
Il punto è che per addestrare gli algoritmi, specie in taluni ambiti, servono quantità
importanti di dati anche personali che, troppo spesso, non sono e non saranno raccolti in
modo trasparente.
Ma soprattutto che decisioni suggerite o, addirittura, assunte da algoritmi addestrati
partendo da dataset inidonei, per qualità, affidabilità, assortimento dei dati in essi presenti
o mancato aggiornamento possono dar luogo a enormi discriminazioni capaci
letteralmente di travolgere l’identità di una persona e modificarne il corso della vita.
Dati personali e identità personale, quindi, sono e saranno sempre di più minacciati
dall’intelligenza artificiale.
Questi rischi, naturalmente, non suggeriscono di tirare il freno dell’innovazione in materia
di intelligenza artificiale ma, semplicemente, di inserire la protezione dei dati personali e
dell’identità personale tra i vincoli di ogni progetto basato sugli algoritmi.
Più si investe nella progettazione ispirata, tra gli altri, al principio della privacy by design,
più saremo in grado di abbattere rischi che, peraltro, dobbiamo accettare siano, in una
certa percentuale, ineliminabili e rappresentano il prezzo da pagare per beneficiare di
quanto l’intelligenza artificiale può offrire alla società.
E, però, deve trattarsi di un prezzo ragionevole e sostenibile nella dimensione umana e in
quella democratica.
Per essere tale questo prezzo deve essere rappresentato da quella percentuale
ineliminabile di rischio residua dopo che si sia investito nella sua eliminazione le stesse
risorse che si sono investite nella progettazione e implementazione delle altre componenti
del progetto. La privacy, insomma, non è meno importante dell’innovazione e viceversa.
Lei ha esercitato il diritto di non vedere utilizzati i suoi dati da parte di ChatGPT. Ci
spiega concretamente come fare?
È relativamente facile.
Quello che io ho esercitato è il c.d. diritto di opposizione riconosciuto a chiunque viva in
Europa dal GDPR, la disciplina europea sulla protezione dei dati personali nonché sulla
loro libera circolazione.
In particolare, il diritto di opposizione, consente a chiunque di noi di chiedere a qualunque
titolare del trattamento che tratti i nostri dati personali sulla base del c.d. legittimo interesse
– quello sulla cui base OpenAI ha dichiarato di aver raccolto e trattare i dati personali
dell’intera umanità o di una sua percentuale rilevante – di interromperne il trattamento
senza neppure dover spiegare le ragioni a monte di tale richiesta.
Ricevuta la richiesta il titolare del trattamento deve cessare ogni trattamento dei dati
personali del richiedente salvo che non ritenga che il proprio interesse – quello sulla cui
base ha iniziato il trattamento medesimo – non sia prevalente rispetto alle istanze di
privacy rappresentategli dall’interessato.
OpenAI, in relazione a ChatGPT, oggi consente a chiunque l’esercizio di questo diritto
attraverso un apposito link presente nell’informativa sulla privacy pubblicata sul sito.
Bisogna, tuttavia, essere chiari: quello che OpenAI, allo stato, fa ricevuta la richiesta è
semplicemente impostare un filtro che impedisce agli specifici dati personali oggetto della
richiesta – per esempio il nome “Guido Scorza” – di apparire nelle risposte che il Chatbot
da agli utenti.
Non è però possibile, almeno per ora, ottenere per davvero la eliminazione di tutti i dati
personali e la cessazione di ogni trattamento.
In questa direzione credo ci sia ancora tanta strada da fare.
Desidera raccontare un’esperienza particolarmente positiva o negativa che le è
capitata con l’intelligenza artificiale?
Non ne ho e forse proprio questa circostanza è al tempo stesso la più positiva e la più
negativa delle esperienze.
Mi spiego meglio: utilizziamo tutti, ormai, l’intelligenza artificiale nel nostro quotidiano e lo
facciamo in modo “trasparente” – ovvero senza neppure rendercene conto o senza
saperlo – il che da un lato è caratteristico delle innovazioni più potenti, più pervasive e
destinate a cambiarci più significativamente la vita ma dall’altro è caratteristico anche delle
innovazioni più pericolose e insidiose, perché proprio quella trasparenza, può farci perdere
di vista l’esigenza di usarla con prudenza.
Nell’età di mezzo che stiamo vivendo, quindi, per me, l’impiego dell’intelligenza artificiale
rappresenta sempre – o quasi – un’esperienza molto positiva e al tempo stesso, negativa
in analoga misura.
Diritto dell’Informazione
“Diritto dell’Informazione: la bussola per orientarsi tra notizie e giurisprudenza”
Continua a seguirci!