La Commissione europea scrive la proposta e poi il Parlamento europeo e il Consiglio aggiungono, modificano o cancellano parti del testo. Successivamente, le tre istituzioni iniziano il trilogo per produrre una versione finale su cui ci sia l’unanimità.
L’11 maggio, la commissione Imco-Libe del Parlamento europeo ha votato a favore degli emendamenti al testo della proposta dell’Ai Act, il futuro regolamento europeo sull’intelligenza artificiale. Il voto finale avverrà a Strasburgo, probabilmente il 14 giugno, e da quel momento inizieranno i triloghi per arrivare a una versione finale entro la fine della legislatura, prima delle elezioni del 2024.
Una delle novità introdotte dal Parlamento riguarda la valutazione d’impatto sui diritti fondamentali, che sarà il punto di scontro nelle trattative finali. Si prevede un nuovo obbligo per i casi di intelligenza artificiale ad alto rischio, che richiede alle aziende di preparare una valutazione di impatto sui diritti fondamentali prima di mettere sul mercato un sistema ad AI ad alto rischio. La valutazione dovrebbe includere elementi come lo scopo d’uso, l’area geografica, le categorie di persone che potrebbero essere danneggiate, la conformità alle norme sui diritti fondamentali e l’impatto ambientale. Saranno necessarie anche contromisure dettagliate per prevenire e limitare i rischi.
Inoltre, le aziende dovranno notificare l’inizio della valutazione alle autorità nazionali, agli stakeholder e ai rappresentanti delle parti più deboli. Ciò significa coinvolgere associazioni dei consumatori, sindacati e il Garante della privacy per considerare tutte le possibili conseguenze dell’AI sulle parti più deboli. Le parti coinvolte avranno sei settimane per rispondere e portare i propri rilievi.
Secondo Gianclaudio Malgieri, professore dell’Università di Leiden, la proposta del Parlamento va nella direzione giusta e sottolinea l’importanza di concentrarsi sui soggetti vulnerabili nella valutazione d’impatto.
L’adozione di standard condivisi sarà necessaria per facilitare l’uso dell’AI ad alto rischio da parte delle startup e delle PMI. Tuttavia, sarà importante bilanciare gli interessi in gioco, evitando una deresponsabilizzazione delle startup e prendendo in considerazione gli effetti discriminatori sulle persone.
Il testo che passerà a giugno offrirà un primo punto di partenza per il confronto successivo tra le diverse istituzioni al fine di trovare un bilanciamento tra gli interessi coinvolti. Sarà fondamentale concretizzare questi principi e coinvolgere attivamente l’accademia, le istituzioni e la società civile nella creazione di modelli chiari e misurabili per valutare e mitigare gli effetti dell’AI sui diritti fondamentali.
La regolamentazione dell’intelligenza artificiale rappresenta una sfida complessa, ma l’Unione europea sta facendo importanti progressi per garantire un uso responsabile e rispettoso dei diritti fondamentali nell’era dell’AI.
(F.S)