L’idea di Google è quella di rimpiazzare le vecchie scale, poco rappresentative delle tonalità di pelle più scure, che vengono ancora utilizzate dalle tech company per addestrare le intelligenze artificiali a riconoscere la pelle umana.
I casi in cui queste scale obsolete hanno creato problemi sono svariati. Le principali tecnologie di riconoscimento facciale, per esempio, fanno molta più fatica a riconoscere il genere di una persona di colore piuttosto che di una persona bianca. E nel 2019, uno studio del Georgia Institute of Technology ha mostrato che le auto a guida autonoma hanno maggiori problemi a riconoscere i pedoni se non sono bianchi.
I fattori che portano le intelligenze artificiali ad essere “razziste” sono molteplici, ma uno dei più ricorrenti è l’utilizzo di scale cromatiche in cui le varie sfumature di pelli bianche trovano più spazio di quelle di altre tonalità, come la scala Fitzpatrick, risalente agli anni Settanta e ampiamente utilizzata da tech company e università che si ferma a 6 diverse tonalità. Invece, la scala ideata da Monk e promossa da Google ne ha 10, ed è stata deliberatamente disegnata per rappresentare e includere un maggior numero di tonalità più scure.
La sfida, ora, è quella di portare la scala ad essere adottata da quanti più ricercatori e sviluppatori possibili. A questo fine, Google ha lanciato il sito skintone.google, in cui viene spiegato come integrare la Monk Scale nel lavoro della propria tech company, e ha annunciato che comincerà ad utilizzarla in alcuni propri prodotti, tra cui i filtri per le foto e la ricerca di immagini.
Una delle nuove funzionalità permette agli utenti di perfezionare le proprie ricerche in base alle tonalità della pelle proposte nella scala Monk in modo da ottenere risultati personalizzati: ad esempio, cercando “trucco occhi”, la nuova funzione permetterebbe di mostrare risultati coerenti con la tonalità di pelle indicata dall’utente.
Al contempo, Google ha affermato di voler usare la scala per diversificare maggiormente i propri risultati di ricerca, in modo che una ricerca generica come “avvocato”, “dottore” o “bebè” non dia soltanto risultati che rappresentano persone bianche.
In passato la compagnia di Mountain View è stata molto criticata per la perpetuazione di stereotipi razziali da parte dell’algoritmo del proprio motore di ricerca. Per esempio, in un caso risalente al 2015, l’algoritmo di ricerca di Google faceva comparire tra i risultati per i termini “gorilla” e “scimpanzé” le foto di persone di colore – un problema che, a quanto pare, l’azienda non è ancora riuscita a risolvere completamente.
Get real time update about this post categories directly on your device, subscribe now.