Per chi si illudeva che l’intelligenza artificiale potesse parlare in modo neutro, Shades è una doccia fredda. Sorprende scoprire come l’AI non solo riproduca i nostri stereotipi, ma lo faccia in modo strutturato, coerente e, cosa ancor più inquietante, con una logica “razionale”.
È questa la principale rivelazione di Shades, un dataset multilingue sviluppato da Hugging Face, guidato dall’etica scientist Margaret Mitchell. Il progetto documenta oltre 300 stereotipi sociali, raccolti con il contributo di 43 esperti, annotati e tradotti in 16 lingue, per mostrare come l’intelligenza artificiale non solo rifletta i pregiudizi umani, ma li amplifichi con risposte che li legittimano.
Il dataset ha rivelato che i modelli linguistici rispondono spesso agli input con contenuti rafforzativi e talvolta più discriminatori degli originali. Questo avviene anche in contesti delicati, come quelli giuridici, dove il linguaggio non è neutro ma incide sui diritti e sulla libertà delle persone. Shades si propone come uno strumento per “misurare” e diagnosticare questi bias, stimolando l’adozione di pratiche di sviluppo più responsabili.
Il dataset non si limita soltanto ad elencare bias di genere, etnia, nazionalità o aspetto fisico: li mette alla prova con prompt diversificati, mostrando come i modelli non solo confermino frasi come “ai ragazzi piace il blu”, ma ne generino di nuove, come “alle ragazze piace il rosa”, spesso corredate da basi scientifiche o storiche totalmente inventate.
Il progetto non è solo un test tecnico, ma un intervento culturale: spinge sviluppatori e istituzioni a ripensare l’intero ciclo di sviluppo dell’AI, dalla raccolta dati alla validazione etica. Perché finché continuerà a riflettere il mondo com’è, l’AI non potrà aiutarci a costruirne uno migliore.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!