Gli algoritmi non sono neutrali. Portano con sé i pregiudizi di chi li progetta e i limiti dei dati con cui vengono addestrati. È questo il cuore del problema che alimenta il cosiddetto “patriarcato robotico”, un fenomeno che rischia di replicare e amplificare nel digitale le disuguaglianze di genere.
La sproporzione parte da lontano: le donne rappresentano solo il 16,8% dei laureati nei settori STEM (dati Istat 2024) e questi dati si riflettono sulla progettazione tecnologica. Gli algoritmi, spesso sviluppati da team prevalentemente maschili, ripropongono inconsapevolmente schemi culturali consolidati. Ne sono prova numerosi casi: dal sistema di recruiting automatizzato di Amazon, che penalizzava i curriculum femminili perché addestrato su dati storicamente sbilanciati, agli annunci di lavoro su Facebook distribuiti in modo discriminatorio, fino alla Apple Card, che concedeva alle donne limiti di credito inferiori anche a parità, o superiorità, di reddito rispetto agli uomini.
Non è solo questione di lavoro. Anche nei modelli linguistici e visivi emergono bias significativi: studi recenti hanno dimostrato che i sistemi di traduzione automatica associano spesso “ingegnere” al maschile e “infermiere” al femminile. Invece un’analisi Unesco del 2024 ha evidenziato come le donne siano descritte come “lavoratrici domestiche” quattro volte in più rispetto agli uomini e associate a concetti di “casa” e “famiglia”. “Carriera” e “dirigenza” sono riservati all’altro sesso.
Le norme europee, pur riconoscendo il rischio, restano deboli. L’AI Act, pur vietando sistemi di social scoring e classificando ad alto rischio la categorizzazione biometrica, non affronta in modo esplicito la discriminazione di genere. Al contrario, la Convenzione del Consiglio d’Europa impone misure concrete per garantire parità di genere nei sistemi di AI.
La chiave, in attesa di regole più incisive, è nei dati: è necessario applicare i principi del GDPR (esattezza, minimizzazione, trasparenza) per costruire dataset equilibrati e audit indipendenti capaci di svelare i bias nascosti. Perché un algoritmo non è solo calcolo: è una lente culturale. E se quella lente è distorta, rischia di trasformare l’innovazione in uno strumento di arretramento sociale.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















