Com’è risaputo, neanche l’intelligenza artificiale è immune da pensieri e preconcetti che la portano ad elaborare risposte più o meno discriminatorie. Questo deriva chiaramente dal tipo di algoritmo sul quale il modello del caso è stato addestrato, ma c’è un punto in particolare che è finito ultimamente sotto la lente d’ingrandimento di alcuni ricercatori.
Si parla spesso della necessità di un trattamento equo, di non favorire una determinata fascia della popolazione per poi svantaggiarne un’altra. Idee ragionevoli, ma che è giusto contestualizzare, soprattutto quando queste sono alla base della programmazione dei software con i quali ci interfacciamo giornalmente.
Secondo gli ultimi studi, se l’IA finisce per mostrarsi prevenuta verso alcune minoranze, è proprio a causa di chi ha cercato di rendere il suo comportamento uguale nei confronti di tutti. Un conto, infatti, è riconoscere che due persone di etnie diverse debbano godere degli stessi diritti, un altro è non riuscire ad identificare delle evidenti differenze che, se non riconosciute, potrebbero svantaggiare una o l’altra parte.
Nel caso in cui l’IA non mostrasse una certa capacità di comprensione nei confronti di una certa minoranza della popolazione, ad esempio per chi soffre di disabilità, perché troppo improntata a fornire lo stesso tipo di responsi per chiunque, allora ecco che la sua equità diventa un problema che è doveroso affrontare.
L’importanza dell’intervento umano per un’IA più giusta è altissima ed è quindi necessario continuare a sviluppare i nuovi modelli nella maniera più corretta possibile.
S.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!