Nonostante le continue scoperte, in campo di IA è ancora molto frequente riscontrare diversi output influenzati da bias cognitivi. All’origine di tale problema, tutt’altro che irrilevante, vi possono essere sia la struttura dello stesso algoritmo, sia il comando impartito da chi l’ha elaborato. Entrambi questi fattori contribuiscono alla diffusione di pregiudizi negativi e stereotipi, minacce da tenere d’occhio per costruire modelli sempre più imparziali.
Una delle cause è il modo in cui l’IA viene “addestrata”. Spesso questi modelli prendono i loro riferimenti dalla memoria storica, da ciò che è successo nel corso del tempo. Per esempio, per quanto riguarda la discriminazione femminile, può capitare che un algoritmo, non riscontrando una frequente presenza di donne all’interno dei piani alti di un’azienda, possa considerare questa come la normalità, generando un problema a livello di opportunità lavorative. Vista la sempre più alta fiducia di cui godono queste nuove tecnologie, è importante controllare il più possibile questi fenomeni.
L’obiettivo dell’IA dev’essere esattamente l’opposto della discriminazione. Grazie alla ricerca, i modelli dovrebbero poter aiutare a correggere le disuguaglianze, esaminando gli errori commessi negli ultimi decenni e proponendo nuovi metodi per evitare di incorrere negli stessi. In questo senso, l’Unione Europea si è mossa promulgando, ormai più di un anno fa, l’Ai Act.
L’articolo 5 di tale regolamento, in particolare, si concentra sulle pratiche di IA assolutamente vietate. Tra queste, vi sono quei sistemi che prevedono quanto sia alto il rischio che una determinata persona commetta un reato. Si cerca infatti di prevenire una discriminazione di tipo razziale nel caso in cui, secondo i dati dell’algoritmo, la percentuale di crimini commessi in uno stato dagli stranieri fosse più alta di quella dei crimini commessi dai bianchi.
E’ quindi fondamentale il ruolo di ciascuno di noi all’interno della società. Il nostro obiettivo dev’essere quello di azzerare quanto più possibile stereotipi e discriminazioni, in modo che i nuovi modelli di IA non vengano addestrati in base a dati che identificano una determinata minoranza come “sbagliata”. Migliorare la percezione del diverso è il primo passo per un’IA più equa e giusta, che ci aiuti nella costruzione di un modo più inclusivo e meno divergente su certe tematiche.
S.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/