L’obiettivo della commissione è quello di trasformare l’Europa nel polo mondiale per un’intelligenza artificiale (IA) affidabile e, in partnership con gli Stati membri, sviluppare il primo quadro giuridico sull’IA mai realizzato.
È da considerare come una carta dei diritti per l’IA, un mondo dove l’IA dev’essere utilizzata e gestita in modo responsabile e sicuro, offrendo unicamente una user experience affidabile.
In modo non dissimile dal GDPR, non importa se la propria azienda si trova all’esterno dei confini UE; se si possiedono legami con l’UE stessa, clienti, fornitori, personale nella UE oppure se si realizzano prodotti per la UE, sarà necessario adeguarsi alla legge. La mancata adempienza comporterà per un’organizzazione sanzioni finanziarie e si apprende che sono previste multe fino a 30 milioni di euro, o pari al 6% del fatturato annuale globale.
Ufficialmente, la legge è stata assegnata a un comitato del Parlamento UE, cui seguirà la revisione da parte del Consiglio dei Ministri. Solo quando sarà stata approvata avrà inizio il periodo di 2 anni per l’implementazione.
I sistemi che probabilmente subiranno un impatto immediato dalla legge sull’IA sono legati a sicurezza, infrastrutture critiche, educazione e formazione, programmi per dipendenti, servizi finanziari, forze di polizia, controlli di frontiera, giustizia e sono trattati dalla legislazione di armonizzazione del mercato unico europeo.
È importante conoscere la situazione del proprio business per poter prendere decisioni quantitative su come i sistemi si allineano con regolamenti e sistemi di classificazione UE. I sistemi che richiederanno una valutazione più precisa saranno anche quelli che includono il machine learning per il riconoscimento di pattern, la scoperta di anomalie edge e l’analisi delle cause base (root cause analysis), il pricing dinamico, il customer engagement e i gemelli digitali (digital twins) per migliorare la resa, il controllo di produzione e la manutenzione condizionata (condition-based maintenance), la gestione delle frodi e dei rischi.
Inoltre, verrà creato il Decision Observer Team, composto da vari stakeholder, che farà parte di un comitato di coordinamento interno dedicato all’Artificial Intelligence Act. A questi osservatori verranno assegnati compiti diversi in varie aree di business dove i risultati verranno aggregati per gestire i rischi legati agli algoritmi IA come gruppo.