Nonostante il team mondiale di 15.000 “pulitori” che Meta continua a riproporre come best practice e a riprova del suo sforzo massimo (anche economico) di tenere in ordine la sua piattaforma, quello che spicca realmente è il ruolo proattivo dell’AI nella rimozione dei contenuti. Per quanto riguarda Facebook si è passati dal 23.6% di contenuti segnalati dall’AI nel 2017 al 94.7% nel 2024. Le percentuali di Instagram sono totalmente assimilabili.
Da quando Meta ha iniziato a pubblicare il suo Rapporto sull’Applicazione degli Standard della Comunità ogni trimestre per creare maggiore trasparenza riguardo alle loro misure di moderazione, la quantità totale di contenuti segnalati o rimossi contenenti discorsi di odio, così come il suo tasso di azione proattiva, ha raggiunto un picco storico nel secondo trimestre del 2021 e ha iniziato a diminuire costantemente fino al primo trimestre del 2023, dopo di che è brevemente risalito.
Le difficoltà teoriche ma anche tecniche legate alla valutazione dei contenuti offensivi o critici – quelli che potrebbero provocare incidenti o reazioni violente – hanno spinto aziende come Facebook e YouTube ad affidare una parte importante del lavoro alla comunità di utenti, tramite il sistema delle segnalazioni. Le grandi aziende come Google e Facebook affidano la compilazione delle norme di utilizzo dei servizi a un gruppo di lavoro specifico, che chiamano scherzosamente i Deciders, “quelli che decidono” . Questo serve a elaborare un algoritmo sviluppato in parte tramite l’apprendimento meccanico di questi dati e in parte tramite il lavoro umano di supervisione da parte dei Deciders, che aggiustano il tiro laddove ritengano che una segnalazione sia ingiustificata o condizionata da fattori non rilevanti secondo le norme di utilizzo.
A.L