Oggi che le piattaforme social fanno parte della quotidianità di milioni di persone, è necessario iniziare a domandarsi quanto le aziende proprietarie dei siti siano in grado di influenzare le scelte dei cittadini. I processi informatici che si basano sui dati personali degli utenti, infatti, non cambiano solo l’homepage di un sito o le pubblicità che vediamo sul web, ma sono in grado di condizionare gli iscritti in scelte importanti della vita reale.
Un gruppo di ricercatori italiani ha provato a rispondere al quesito con il progetto Algocount, abbreviazione di algorithm accountability, che mira a esporre il funzionamento dei processi derivati dagli algoritmi.
Algocount ha prodotto un output inedito: una collezione di immagini generate automaticamente con i dati della ricerca, frutto della collaborazione interdisciplinare tra sociologia, design dell’informazione e curatela museale che entreranno a far parte dell’archivio del Museo nazionale di Scienza e tecnologia Leonardo da Vinci di Milano. Un metodo innovativo per provare a visualizzare, e a comprendere, l’importanza degli algoritmi e dei dati personali.
Attraverso l’utilizzo di metodi digitali e strumenti di data visualization, Algocount mostra come le forme di polarizzazione che originano dalla raccomandazione automatica dei contenuti siano molto più sfumate di quanto si tenda a credere. Se è vero che gli algoritmi si adattano ai comportamenti d’uso degli utenti, allo stesso tempo non li orientano in maniera definitiva.
Il loro funzionamento, in alcune circostanze, tende a produrre percorsi di potenziale radicalizzazione in relazione ad alcuni temi, di cui gli utenti possono restare preda e dei quali devono avere consapevolezza al fine di mantenere un rapporto sano con i social.
“È necessario che a livello collettivo capiamo il valore dei dati. È difficile intervenire in corsa, ma il nostro lavoro di ricerca vuole portare avanti il dibattito e avviare la conversazione” spiega Alessandro Gandini, coordinatore scientifico del progetto realizzato dall’Università degli Studi di Milano, in partnership con il laboratorio Density Design del Politecnico di Milano e la collaborazione del Museo nazionale di scienza e tecnologia, sostenuto da Fondazione Cariplo.
I ricercatori hanno creato cinque focus group per dimostrare che, se da una parte gli algoritmi di raccomandazione spesso facilitano la ricerca e l’accesso a contenuti di informazione, questi vengono talvolta percepiti come un ostacolo alla ricerca di fonti affidabili, per la difficoltà di discernere tra buona e cattiva informazione.
Dell’esistenza degli algoritmi gli utenti si accorgono principalmente in presenza di glitch, vale a dire in caso di malfunzionamenti o risposte inaspettate e fuori dall’ordinario da parte del sistema, che fanno percepire e visualizzare compiutamente la presenza di raccomandazioni automatizzate.
“I consigli che posso dare a un utente sono due: avere spirito di osservazione, ovvero provare creativamente a giocare coi contenuti. Essere più proattivi e meno passivi rispetto a ciò che viene mostrato. Inoltre, bisogna provare a ragionare sul valore del dato: il nostro studio è anche un tentativo per far riflettere le persone e renderle consapevoli che quando si fanno azioni in rete, queste hanno un effetto”, aggiunge Gandini.