Il 28 settembre 2022, l’Unione europea ha intavolato una nuova proposta legislativa, la Ai Liability Directive (Ald), che di fatto ricollega la responsabilità delle storture di sistema alle aziende tech che commercializzano i prodotti fallati. Una proposta che mira ad armonizzare le normative nazionali a tutela dei consumatori per quanto riguarda i rischi derivanti dall’utilizzo dell’Intelligenza Artificiale.
Scopo della direttiva sulla responsabilità da Intelligenza Artificiale (AI Liability Directive) è stabilire norme uniformi per l’accesso alle informazioni e l’alleggerimento dell’onere della prova in relazione ai danni causati dai sistemi di AI, garantendo una protezione più ampia per le vittime (siano esse persone fisiche o imprese) e promuovendo il settore dell’AI grazie a un aumento delle garanzie.
La Commissione europea aveva manifestato la sua intenzione di normare le intelligenze artificiali già in occasione della presentazione dell’ Artificial Intelligence Act , una bozza di legge che, nonostante contenga ancora una dose consistente di ambiguità, mira a porre in futuro dei confini sull’applicazione del machine learning, nonché a definire tutta una serie di Ai le cui modalità di utilizzo siano da considerarsi ad “alto rischio”. In tal senso, la nuova direttiva nasce a pieno titolo come contraltare dell’Ai Act: le sue norme non prevengono gli abusi e gli errori, piuttosto offrono a utenti e aziende gli opportuni mezzi con cui chiedere un risarcimento in caso di danno.
La Ai Liability Directive introduce in particolare due elementi di massimo rilievo: la presunzione di causalità e il diritto da parte della parte lesa di chiedere all’azienda con cui è in causa di visionare le prove del funzionamento delle Ai sotto processo. Il primo permetterà di chiedere riparazione in tutte le occasioni in cui sia “ragionevole presumere” che il torto subito sia connesso a un’intelligenza artificiale, il secondo, applicabile solamente agli strumenti ad alto rischio, imporrà alle aziende tech di condividere tutti i dati tecnici che verranno considerati rilevanti a giungere a una conclusione giuridica.
“Il principio è semplice, le nuove regole si applicano quando un prodotto che funziona attraverso la tecnologia Ai causa un danno e questo danno è il risultato di un errore compiuto dai produttori, dagli sviluppatori o dagli utilizzatori di questa tecnologia”, ha sintetizzato Didier Reynders, Commissario alla giustizia dell’Ue.
“Vogliamo che le tecnologie dell’Intelligenza Artificiale prosperino nell’UE, e perché questo sia possibile occorre che le persone abbiano fiducia nelle innovazioni digitali”, spiega la vicepresidente della Commissione europea per i valori e la trasparenza Věra Jourová.
L’Unione europea vuole intervenire velocemente sulla gestione delle intelligenze artificiali, per evitare che uno strumento tanto insidioso approfitti della deregolamentazione per insediarsi nel tessuto sociale al punto da non essere più aggiustabile se non con soluzioni emergenziali. Le nuove norme vogliono rappresentare un punto di equilibrio tra la protezione dei consumatori e la promozione dell’innovazione, eliminando ulteriori ostacoli per l’accesso al risarcimento da parte delle vittime, e stabilendo nel contempo garanzie per il settore dell’AI con l’introduzione, ad esempio, del diritto di contestare un’azione di responsabilità sulla base di una presunzione di causalità.