Il Parlamento europeo ha confermato le proposte della Commissione di imporre obblighi più severi ai modelli di base, una categoria dell’AI generica che comprende anche ChatGPT. Per quanto riguarda l’AI generativa, Strasburgo ha deciso che questi sistemi dovranno essere progettati nel rispetto del diritto dell’Ue e delle libertà fondamentali.
Si tratta di una proposta legislativa volta a regolamentare l’Intelligenza Artificiale in base al suo potenziale di danno. Il provvedimento però potrebbe ancora essere cambiato con modifiche di livello tecnico prima del voto in plenaria previsto per metà giugno.
Intanto, in questo accordo provvisorio, il Parlamento Ue ha esteso il divieto anche sui software di identificazione biometrica, prima vietati solo per l’uso in real time, per i quali adesso ne è previsto un uso ex post solo per reati gravi e previa autorizzazione del giudice. Inoltre, l’uso del software di riconoscimento delle emozioni è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.
Inizialmente la proposta della Commissione definiva sistemi di AI a rischio elevato quelli applicati, ad esempio, alle reti critiche, all’occupazione, all’istruzione e alla formazione nonché ai servizi pubblici essenziali. Ma gli eurodeputati hanno introdotto un livello aggiuntivo considerando ad alto rischio anche i sistemi che possono provocare danni alla salute, alla sicurezza o ai diritti fondamentali. Ovviamente sono considerati ad alto rischio anche i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti dal Digital Services Act.
Nella stessa giornata in cui il Parlamento Ue ha trovato l’accordo politico, l’European Union Agency for Cybersecurity (ENISA) ha pubblicato un documento sulla sicurezza applicata all’AI in cui si sottolinea la necessità di standard comuni per garantire la sicurezza dei sistemi di Intelligenza Artificiale.
Nel documento si sottolinea come un approccio all’Intelligenza Artificiale che tenga conto dei rischi relativi alla cybersicurezza debba includere il ricorso a una terminologia standardizzata per la sicurezza informatica, lo sviluppo di orientamenti tecnici su come gli standard di sicurezza informatica debbano essere applicati all’Intelligenza Artificiale e la cooperazione e il coordinamento tra i comitati tecnici degli organismi nazionali e internazionali di normazione sulla cybersicurezza.
“L’utilizzo di standard comuni adeguati contribuirà a garantire la sicurezza dei sistemi a Intelligenza Artificiale e dei dati che tali sistemi devono elaborare per poter funzionare. Confido che questo sia l’approccio che dobbiamo adottare se vogliamo massimizzare i vantaggi dei sistemi ad Intelligenza Artificiale”, ha spiegato il direttore esecutivo Enisa, Juhan Lepassaar.