L’intelligenza artificiale è una realtà dalla quale non possiamo più prescindere. Dal settore commerciale a quello della finanza, dalla sanità all’agricoltura, il cambiamento è dirompente e inarrestabile. Mentre le braccia robotiche alleviano i lavoratori dal peso dei carichi pesanti nelle aziende, negli ospedali ha fatto la sua comparsa “Hugo“, un robot smart, che presenta ridotti costi di gestione e manutenzione. Se si può concludere che l’intelligenza artificiale rappresenti già una fondamentale componente della nostra società, occorre chiarire i motivi per i quali la proposta di regolamento comunitario che la normi adeguatamente non è ancora approvata.
Fin dal 20 ottobre 2020, il Parlamento Europeo ha adottato tre proposte nelle quali chiarisce il fondamentale ruolo dell’UE nella spinta all’innovazione digitale, nell’elaborazione di standard etici cogenti e nella costruzione di una cultura della digitalizzazione che riscuota la fiducia dei consumatori.
Il 21 aprile 2021 la Commissione EU ha pubblicato la Proposta di regolamento sull’IA[1] unitamente al “Piano coordinato di revisione dell’intelligenza artificiale 2021“, che stabilisce azioni congiunte di stampo finanziario e il “Regolamento del Parlamento europeo e del Consiglio relativo alle macchine“, focalizzato sulla tutela delle persone nell’uso delle macchine. Risulta utile analizzare le criticità che la normativa sull’intelligenza artificiale presenta, partendo dai cittadini europei, che sono il cuore dell’ordinamento europeo anche in rapporto al potere decisionale dell’apparato tecnologico. Fin dalle premesse, la Commissione UE punta l’attenzione sulla certezza del diritto, mediante l’elencazione all’allegato 1 di approcci e tecniche per il suo sviluppo. L’intelligenza artificiale presenta alti livelli di opacità, complessità e dipendenza dai dati teoricamente in grado di incidere negativamente sui diritti riconosciuti dalla Carta dei diritti fondamentali dell’Unione Europea. Per affrontare il tema, la Proposta di regolamento adotta un approccio basato sul rischio, descrivendolo in modo preciso ed elencando i requisiti necessari per la sua affidabilità. Il punto di partenza è certamente rappresentato dall’individuazione scrupolosa dei singoli diritti protetti dalla Carta dei diritti fondamentali dell’Unione Europea. Dalla dignità umana, al rispetto della vita privata e alla protezione dei dati[2], passando per il diritto alla libertà di espressione e alla vita in un ambiente sano. Nel testo si legge una dettagliata ricostruzione delle ipotesi di rischio, a partire dal rischio totale (art. 5), contrastato vietando i prodotti che ne risultano caratterizzati. Vi è poi il rischio da totale ad alto (art. 5), affrontato vietando il prodotto, tranne in casi di emergenza e per le sole forze dell’ordine nell’attività di repressione dei reati. Il rischio semplicemente alto (art. 6), per cui i prodotti sono ammessi, ma rispettando le misure introdotte dal regolamento per mitigare il rischio. Infine il rischio medio (art. 52), circoscritto laddove i prodotti interagiscano con le persone, informandole delle caratteristiche del prodotto e della relativa operatività.
L’esame del rischio effettuato dalla Commissione EU appare oggettiva e unidirezionale. L’analisi delle minacce nascoste dietro questa nuova tecnologia può forse essere ampliata, ricomprendendo le competenze del personale adibito e i bias che affliggono la programmazione. In particolare, il personale che tratta l’intelligenza artificiale, dai developper ai programmatori, è prevalentemente maschile, anche se il prodotto è destinato a una buyer persona di genere femminile.
Inoltre, un esame della Proposta di regolamento unitamente al Reg. UE 2016/679, c.d. GDPR, sembra porre in primo piano il diritto dei cittadini e delle cittadine ad una spiegazione delle decisioni assunte attraverso l’Intelligenza Artificiale, in tal modo rilevando bias e storture. Nel discorso prescrittivo del GDPR, la sicurezza nella libera circolazione del dato rappresenta un vero e proprio obiettivo affidato ad un complesso progetto, caratterizzato innanzitutto da un principio sistemico: la trasparenza dei processi di trattamento dei dati[3]. Questa valutazione ci consente di introdurre un altro rilevante aspetto negativo rappresentato della minaccia per i dati sensibili a cui la Proposta di regolamento sarà chiamata a porre rimedio ex post: siamo davvero disposti a rinunciare alla velocità nelle transazioni economiche e commerciali che il riconoscimento facciale da smartphone consente, per esempio?
Per quanto riguarda le imprese, l’intelligenza artificiale introduce nuovi prodotti e servizi, oltre ad implementare e migliorare quelli già esistenti. In questo senso, occorre chiarire a chi competano i diritti di proprietà intellettuale, oltre ad implementare il rilascio di licenze e di nuovi processi creativi. Un ulteriore problema, che origina dall’operatività dell’intelligenza artificiale in questo ambito, sembra rappresentato dall’individuazione del titolare dei diritti di proprietà intellettuale di un prodotto sviluppato integralmente dall’intelligenza artificiale.
Agli Stati compete il monitoraggio dell’incidenza sul bilancio, mediante assegnazione di incarico di controllo ad organismi che ne verifichino la conformità o vigilino sul mercato europeo [4]. Il monitoraggio è un compito fondamentale per la Commissione UE, che dovrà vigilare sugli effetti della Proposta in commento anche attraverso un meccanismo di registrazione delle applicazioni di IA.
Il Titolo IV della Proposta di regolamento tratta di quei particolari sistemi di IA, che comportano rischi di manipolazione della persona. In particolare, adeguati obblighi di trasparenza sono previsti per i sistemi che interagiscono con la persona, ne rilevano le emozioni o ne determinano la categoria sociale in base a dati biometrici o, infine, elaborano i c.d. deep fake[5], al fine di proteggerla dalla manipolazione.
Se occorre riflettere sulle conseguenze negative del ritardo nell’approvazione della proposta di regolamento, partendo proprio dall’uso che ognuno di noi ne fa quotidianamente, anche l’impatto sui diritti fondamentali e i valori europei deve costituire un focus fondamentale. Uno sguardo al futuro pone, inoltre, l’attenzione di tutte e tutti noi sul fatto che la fiducia verso la tecnologia muova anche da una normativa di riferimento equilibrata e proporzionata, che non freni inutilmente lo sviluppo tecnologico, ma ne rafforzi lo sviluppo creando un clima di fiducia.
L’articolo è stato redatto dall’avv.Helga Carlotta Zanotti, Cultrice della materia di Diritto della comunicazione per le imprese, i media e le organizzazioni complesse, presso l’Università Cattolica del Sacro Cuore di Milano