L’Intelligenza Artificiale generativa sta silenziosamente rafforzando dannosi stereotipi di genere e sta anche perpetuando pregiudizi di genere che sono intrecciati nei dati stessi da cui l’Intelligenza Artificiale apprende, pregiudizi che vengono spesso amplificati dal modo in cui interpreta e riproduce tali modelli.
Al momento l’Intelligenza Artificiale rimane profondamente distorta. I modelli linguistici di grandi dimensioni (LLM) spesso ritraggono le donne in ruoli domestici o subordinati. Inoltre, generano spesso contenuti sessisti e misogini e collegano le donne a professioni tradizionalmente sottovalutate e stigmatizzate.
Questi stessi presupposti distorti si ritrovano anche in altri strumenti digitali basati su modelli di Intelligenza Artificiale. I sistemi di traduzione automatica neurale spesso assegnano il genere in base a stereotipi.
Con la crescente integrazione dell’Intelligenza Artificiale nei vari settori il rischio di aggravare le disuguaglianze di genere già esistenti diventa ancora più urgente. L’UNDP, la rete globale per lo sviluppo delle Nazioni Unite, può fornire ai professionisti dello sviluppo le competenze per utilizzare l’Intelligenza Artificiale in modo attento alle questioni di genere e attingere alle loro diverse competenze per progettare in modo collaborativo soluzioni che contrastino i pregiudizi.
L’UNDP e i suoi partner hanno già adottato misure concrete per affrontare questi rischi. Il Gender Social Media Monitoring Tool ed eMonitor+, ad esempio, sono iniziative pilota che sfruttano l’intelligenza artificiale per rilevare discorsi d’odio e narrazioni online dannose relative al genere, fornendo prove per combattere la violenza di genere facilitata dalla tecnologia. Il Gender Equality Seal for Public Institutions, un programma sempre dell’UNDP, integra il proprio strumento di intelligenza artificiale, LOLA, per fornire valutazioni rapide e basate su prove delle prestazioni delle istituzioni pubbliche rispetto ai parametri di riferimento del Gender Seal.
Se gestita con cura, l’AI ha il potenziale per contrastare le disuguaglianze. Integrando etica, equità e dimensioni di genere nello sviluppo dell’AI e investendo in team diversificati e sistemi trasparenti, si può costruire un’AI attenta alle questioni di genere, essenziale per costruire un futuro digitale equo e inclusivo.
V.L.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















