L’Unione Europea ha introdotto l’AI Act, una normativa che punta a regolamentare i sistemi di intelligenza artificiale per garantire sicurezza e tutela dei diritti dei cittadini.
Nasce dall’esigenza di mantenere trasparenza ed equità nei sistemi di AI, evitando errori e bias che possono influenzare negativamente le decisioni aziendali.
Il nuovo regolamento si basa su un approccio basato sul rischio: i sistemi di AI vengono classificati in base alla loro pericolosità. Alcuni, considerati ad alto rischio, dovranno rispettare regole molto rigide per poter essere immessi sul mercato europeo.
Un ruolo fondamentale è svolto dalla normazione tecnica, ovvero l’insieme di regole e standard che permettono alle aziende di dimostrare che i loro sistemi IA sono sicuri e rispettano la legge. Organizzazioni come CEN e CENELEC lavorano a questi standard, in collaborazione con enti europei e internazionali.
Il Regolamento prevede tre modalità di valutazione della conformità: valutazione dell’adeguatezza effettuata da terze parti, la certificazione sulla base degli standard armonizzati a livello europeo e una procedura basata sul controllo interno.
Le aziende dovranno quindi adattare i loro workflow agli impatti dell’intelligenza artificiale, adeguandosi a requisiti specifici per garantire trasparenza, affidabilità e rispetto della privacy dei cittadini.
L’AI Act entrerà in vigore gradualmente entro il 2025, ma già da ora rappresenta una grande sfida per chi sviluppa soluzioni di intelligenza artificiale. Sarà fondamentale investire in sicurezza e nel rispetto dei diritti digitali, per garantire sia innovazione che responsabilità.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.