L’intelligenza artificiale sta rivoluzionando il mondo del lavoro, anche nei processi di selezione e gestione del personale. Tuttavia, non è neutra: se allenata su dati storici che riflettono disuguaglianze pregresse, rischia di replicare e rafforzare pregiudizi esistenti, tra cui quelli di genere, penalizzando ad esempio le donne nei processi di selezione e gestione aziendale.
Lo dimostra uno studio condotto presso l’Università di Pisa: un sistema automatizzato di screening tendeva a preferire i candidati uomini, semplicemente perché storicamente più rappresentati in certe posizioni. L’algoritmo, addestrato su dati di assunzioni passate, ha replicato lo “status quo”, escludendo di fatto profili femminili qualificati.
Un rischio di “discriminazione algoritmica” che nasce non tanto dalla tecnologia in sé, ma dalla qualità e dalla struttura dei dati usati per addestrarla. D’altronde, se il dataset riflette un passato diseguale, il futuro che l’AI costruisce rischia di esserne una copia distorta.
Un altro caso emblematico è quello del rider: nel 2020, il Tribunale del lavoro di Bologna ha stabilito che l’algoritmo reputazionale di una piattaforma penalizzava i lavoratori che avevano effettuato assenze, senza considerare le giustificazioni, violando i loro diritti.
La soluzione è quella di una vigilanza costante. Gli algoritmi devono essere controllati da esseri umani, capaci di comprendere le sfumature, e non lasciati agire in autonomia.
Per garantire equità servono un addestramento etico dei modelli, l’uso di dati inclusivi e l’applicazione dei principi di trasparenza. Perché, se non regolata, l’AI rischia di decidere il destino professionale delle persone sulla base di vecchi stereotipi mascherati da efficienza.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!