L’approvazione del provvedimento per regolamentare l’Intelligenza Artificiale è in bilico a causa di disaccordi sui foundation models, i modelli di apprendimento automatico che vengono addestrati utilizzando una grande quantità di dati e vengono utilizzati per sviluppare sistemi avanzati e potenzialmente rischiosi.
Da una parte c’è la presidenza spagnola, che seguendo l’esempio americano ha inizialmente suggerito di sottoporre a vigilanza e scrutinio i modelli più avanzati, dall’altra troviamo Francia, Germania e Italia, che preferiscono un approccio legato al rischio applicativo. Anche diverse aziende del settore si sono dichiarate contrarie al criterio proposto per la regolamentazione dei “modelli di base di grandi dimensioni”, sostenendo che sia preferibile una legislazione focalizzata sui sistemi anziché sui modelli. Alcune tra le maggiori aziende francesi, per esempio, si sono dichiarate d’accordo con la posizione espressa da Bruno Le Maire, ministro dell’Economia francese, che ha sottolineato l’importanza di regolare l’uso dell’Intelligenza Artificiale anziché concentrarsi sui prototipi. In Germania, invece, le società leader del settore AI hanno espresso il timore che la regolamentazione proposta dall’Ue potesse metterle in difficoltà rispetto ai competitor statunitensi e cinesi.
Per trovare un punto di accordo tra la versione della legge sull’AI approvata dal Consiglio il 6 dicembre 2022 e quella del Parlamento europeo il 14 giugno 2023, il Governo spagnolo ha proposto un approccio graduale e multi-livello, con regole più severe per i modelli più potenti (quelli che possiedono caratteristiche in grado di superare lo stato attuale dell’arte). Per le AI ad alto impatto, quindi, la Spagna chiede l’applicazione preventiva di specifiche disposizioni relative alla sicurezza informatica, alla trasparenza dei processi di addestramento e alla condivisione della documentazione tecnica. Il tutto prima dell’introduzione sul mercato delle AI in questione. Per i foundation models, invece, la proposta era di rendere applicabile la normativa europea sull’Intelligenza Artificiale solo al momento della commercializzazione dei prodotti.
Inizialmente l’approccio spagnolo sembrava potesse portare a una convergenza di idee, ma il prolungarsi della mancanza di un accordo sta compromettendo lo svolgimento dell’iter di approvazione della legge. La negoziazione tra Parlamento, Consiglio e Commissione sull’AI Act diventa sempre più difficile perché non si riesce a trovare un accordo sugli standard da adottare per valutare i foundation models, il che rende difficile misurare le prestazioni dei modelli in termini di danni intenzionali.
Visto che i tempi per l’entrata in vigore dell’AI Act si stanno allungando, nei prossimi giorni verrà presentato l’AI Pact, il patto per l’Intelligenza Artificiale. La Commissione europea e il Parlamento Ue avvieranno una procedura di compliance volontaria anticipata, che ha l’obiettivo di aiutare le imprese e le aziende pubbliche ad adeguarsi alle regole dell’AI Act.
Brando Benifei, europarlamentare S&D relatore dell’AI Act, ha dichiarato che si vuole evitare di arrivare “alla data dell’AI Act pienamente in vigore con istituzioni e imprese non pronte al rispetto delle norme. Questo accompagnamento alla compliance sarà estremamente importante”.
M.M.