Nel 2020 Andreas Kaplan, accademico Tedesco, ha pubblicato un articolo dal titolo: “Artificial intelligence: emphasis on ethics and education” su International Journal of Swarm Intelligence and Evolutionary Computation (2020-vol. 9) riservando all’etica un ruolo preminente in un mondo sempre più automatizzato. Con particolare riferimento all’intelligenza artificiale, l’etica rappresenta oggi un valido strumento integrato alla consueta normativa di settore, in grado di rendere quelli che prima erano semplicemente principi generali, immanenti anche all’ordinamento comunitario e alla normativa internazionale, come autentiche norme di settore.
Se osserviamo il panorama giuridico europeo, notiamo come l’Unione Europea avesse già percepito l’urgenza di normare l’Intelligenza Artificiale, riservando uno spazio all’etica. Il 21 aprile 2021 la Commissione Europea aveva trasmesso al Parlamento Europeo e al Consiglio la “Proposta di regolamento che stabilisce norme armonizzate in materia di intelligenza artificiale e che modifica alcuni atti legislativi dell’Unione in questo settore”, cui avevano fatto seguito le “Linee guida per l’uso dell’intelligenza artificiale in campo militare e civile”; della Commissione
Europea sullo stesso argomento. Le norme mostrano l’esigenza di assoggettare l’IA al controllo umano, per operare correttamente ed essere disabilitabile a fronte di comportamenti non previsti. Si percepisce chiaramente l’urgenza di evitare che l’IA sostituisca il processo decisionale umano, ma non pare sufficientemente approfondito il valore della purezza del dato.
In questo contesto i testi normativi riservano uno spazio importante anche all’etica, che concorrerà -è legittimo ritenere- ad evitare il passaggio da un sistema di governo democratico ad un sistema di governo algocratico.
Il Prof. Luciano Floridi nel libro “Intelligenza Artificiale”, segna un primo, fondamentale, punto a favore dell’introduzione dell’etica nella normativa vigente: “L’etica non è una disciplina descrittiva, ma normativa (…)”. L’etica indica, in altre parole, non come le cose vanno ma come dovrebbero andare. Questa definizione è idonea a porre l’etica all’attenzione di chi voglia occuparsi di intelligenza artificiale, ribadendo il passaggio dell’etica da soft law a hard law.
Se esaminiamo il funzionamento degli algoritmi collegati a procedimenti decisionali automatizzati, possiamo concludere che l’IA scelga una strada che si concretizza nell’assunzione di una determinazione. Tale determinazione, però, non dipende dall’intelligenza artificiale, ma dal percorso costruito dal singolo programmatore: dalla verifica delle condizioni, all’individuazione del problema, alla relativa soluzione, mediante l’esame delle possibili opzioni e ipotesi. È il programmatore, o la programmatrice, che ha l’obbligo di prevedere possibili casi nei quali l’IA assuma condotte eticamente censurabili. In questo senso, una prima domanda può riguardare la competenza, e forse anche la percezione, del programmatore o della programmatrice rispetto alle norme codificate, ai principi e ai diritti universali. Nel caso John Lewis vs Amazon, l’intelligenza artificiale del
colosso americano aveva impedito ad un essere umano di perfezionare un contratto d’acquisto, qualificandolo come animale e non come persona attraverso il sistema di identificazione biometrica, per il colore della pelle, la barba e i baffi. L’errore è stato determinato dai pregiudizi o bias, che affliggevano i programmatori assunti
da Amazon per implementare il sistema adottato: Recognition. Ed è solo un esempio.
Una seconda domanda riguarda, invece, l’operatività materiale. Si pensi al caso rappresentato dagli errori dell’IA inevitabili, troppo spesso ritenuti banalmente accettabili. Immaginiamo di costruire un algoritmo o una macchina, strutturata per simulare perfettamente i meccanismi del pensiero umano. Indipendentemente dalla sua struttura, essa si baserà su di un sistema formale, il quale non avrà gli strumenti necessari per stabilire se una proposizione sia vera o falsa in termini assoluti, a causa dei principi di indeducibilità e incompletezza che la caratterizzano.
La complessità è immediatamente percettibile, poiché l’innovazione è nettamente più veloce del diritto e in generale del Legislatore, sia nazionale che internazionale, che sembra non aver ancora raggiunto un grado di conoscenza sufficientemente approfondito dell’innovazione in corso. La Proposta di regolamento non è ancora
stata approvata, ma i robot propriamente detti operano negli studi legali e nelle aziende, i “collaborative robot” costituiscono parte integrante e sostanziale della produzione nelle società, ma anche nei laboratori universitari o negli ospedali e l’Università del Vermont sta sperimentando i primi “living robot” o “xenobots”
È lecito concludere che siamo di fronte ad un’autentica emergenza, come ha rilevato nel 2018 l’UNESCO, l’agenzia specializzata delle Nazioni Unite, attiva nel settore della salvaguardia del patrimonio culturale globale e nella promozione delle arti e delle scienze. L’agenzia ha avviato immediatamente un procedimento volto a fornire una formale raccomandazione ai Paesi membri relativamente all’intelligenza artificiale. Un grande assente nel processo normativo dell’UNESCO è rappresentato dagli Stati Uniti, che si è ritirato con iter avviato nel 2017 e formalmente concluso nel 2019 insieme ad Israele. Gli Stati Uniti hanno un sistema che pare sprovvisto di una regolamentazione efficace dell’IA o, più in generale, delle nuove tecnologie persino quelle che hanno mosso i primi passi sul territorio statunitense. Questo porta a interrogarsi sulla completezza degli scenari normativi in corso di elaborazione, considerando che il lavoro congiunto di un elevato numero di Stati mancherà.
L’UNESCO sceglie un approccio incentrato sull’essere umano, per promuovere il confronto internazionale sugli aspetti universali che caratterizzano l’IA nei settori dell’istruzione, delle scienze, della cultura e dei cambiamenti sociali. La Direttrice Generale, Audrey Azoulay, ha indicato la via dell’etica per le nuove tecnologie, per evitare i rischi che abbiamo indicato. Il punto colto dall’UNESCO pare essere la necessità di prevenire gli squilibri connessi all’implementazione dell’IA sopra richiamati, squilibri che ogni rivoluzione tecnologica ha portato con sé.
Gli strumenti messi in campo ed il procedimento seguito dall’UNESCO appaiono efficaci. Nel 2020 è iniziato un procedimento informale di carattere negoziale, volto alla redazione di una dichiarazione, che mettesse in luce i principi etici rilevanti per l’intelligenza artificiale. Il focus dell’operazione è stato duplice: diritti umani e libertà fondamentali.
In seno all’UNESCO è stato costituito un Gruppo di esperti ad hoc, denominato AHEG, per la redazione di una bozza di raccomandazione che fissi i principi etici nell’implementazione dell’IA. È interessante osservare l’operatività di AHEG, che ha lavorato incessantemente anche durante la pandemia da Covid-19, mediante
riunioni da remoto. L’urgenza di perfezionare una raccomandazione sull’impiego dell’IA in tempi brevi emerge in tutta la sua forza. Da marzo a maggio 2020 una prima versione del testo è stata elaborata e sottoposta a consultazione. Non può sfuggire la rapidità con la quale AHEG ha finalizzato la prima versione del testo, rispetto alla Commissione Europea ed oggi al Parlamento Europeo e al Consiglio. Da giugno ad agosto 2020 è stata effettuata una consultazione estesa a molteplici stakeholder, secondo una tripartizione: 1. consultazione pubblica con modalità on-line, dalla quale sono scaturite oltre ottocento risposte; 2. una serie di consultazioni virtuali, con modalità on line, a livello regionale e sub-regionale. Queste consultazioni a carattere locale, organizzate con Paesi e Istituzioni ospitanti in tutti i componenti dell’UNESCO, hanno accolto oltre cinquecento partecipanti; 3. deliberazioni assembleari che hanno generato circa cinquantamila commenti al testo.
Oggi disponiamo di una seconda bozza più precisa e articolata. L’importanza del lavoro affrontato da AHEG mette in luce l’esigenza di una normativa in materia di IA trasversale e caratterizzata da principi univoci, basata sul rischio e con una serie di disposizioni chiare sul risarcimento del danno e sui soggetti a cui può rivolgersi il danneggiato per ottenere un pronto ristoro, sulla protezione del know-how d’impresa tutelando la proprietà intellettuale, nonché sull’operatività in open-source.
Helga Carlotta Zanotti
avvocata of counsel Fenice Law & Consulting
Cultrice della materia – Diritto della comunicazione per le imprese e i media, Università Cattolica del Sacro Cuore