Il nuovo Regolamento sull’Intelligenza Artificiale (AI Act), recentemente adottato dall’Ue, introduce rigide misure di controllo per coloro che impiegano questa tecnologia. Secondo la normativa, le imprese sono tenute a garantire la completa trasparenza degli algoritmi e dei dati utilizzati dall’AI.
Le nuove norme introdotte dall’AI Act rappresentano una pietra miliare nella regolamentazione di un settore completamente nuovo.
Il principio fondamentale del pacchetto normativo è la salvaguardia dei diritti individuali, specialmente in un periodo in cui la digitalizzazione potrebbe rappresentare un pericolo per l’uomo.
In questa prospettiva anche le imprese, soprattutto quelle che operano all’interno del settore tech, dovranno valutare gli investimenti tecnologici sulla base delle nuove regole imposte dell’AI Act. L’AI Generativa (OpenAI/Google Bard) infatti non potrà essere utilizzata per analisi di dati sensibili, riconoscimento emotivo, polizia predittiva o creazione di dataset dal riconoscimento facciale.
In merito Anitec-Assinform ha lamentato gli eccessivi paletti imposti alle aziende. L’AI Act “impone obblighi rigorosi agli sviluppatori di tecnologie all’avanguardia che sono alla base di molti sistemi a valle ed è quindi probabile che rallenti l’innovazione in Europa”, commentano dall’Associazione.
Il Regolamento è infatti arrivato in ritardo rispetto all’evoluzione del settore tecnologico, per cui diverse aziende tech hanno già investito in progetti che, stando alle nuove regole previste, dovranno essere banditi nei prossimi mesi. Ciò porterà ad un aumento delle esportazioni di tecnologie “proibite” in Europa verso il mercato extra-europeo.
Il potenziale pericolo viene sintetizzato dal pensiero di Daniel Friedlaender, vicepresidente senior a capo della CCIA Europe: “Purtroppo la velocità sembra aver prevalso sulla qualità, con conseguenze potenzialmente disastrose per l’economia europea. L’impatto negativo potrebbe essere avvertito ben oltre il solo settore dell’intelligenza artificiale”.
C.L.