Il progetto “AI-based Content Discriminator Vs Misinformation” è il vincitore del bando “Il futuro parte da qui” dell’associazione Sedicimedia, che ha proposto il tema “Intelligenza Artificiale al servizio delle nuove emergenze globali”.
Il “Selezionatore di contenuti basato sull’utilizzo di tecnologie di intelligenza artificiale” è un sistema disponibile come applicazione software e permette all’utente di verificare l’affidabilità delle informazioni che visiona attraverso lo schermo del proprio device. Il suo ideatore, un giovane ingegnere calabrese, afferma che «l’app, grazie ad una lista di agenzie di informazioni selezionate e verificate, che possono essere giornali o istituzioni, passa in rassegna tutte le notizie che riguardano un dato argomento e le compara, non più dal punto di vista letterale, ma dal punto di vista semantico».
Questo è possibile grazie alla branca dell’intelligenza artificiale chiamata Natural language processing, che rende un sistema in grado di comprendere il linguaggio utilizzato nei testi e verificarne il significato semantico in relazione a fonti verificate. Un device che possiede l’app sopra citata, quindi, sarà capace di capire una notizia e confrontarne il significato con altre simili che si trovano in rete, assegnandole un grado di affidabilità.
L’ingegnere calabrese sostiene che «i sistemi di intelligenza artificiale vanno considerati a supporto dell’attività umana e potrebbe essere controproducente fare scegliere ai sistemi cosa vedere e cosa non vedere. Anche perché all’interno di questi sistemi potrebbero essere stati commessi degli errori». Per questo la sua app fornisce soltanto dei suggerimenti, senza scegliere le notizie da mostrare. La scelta finale è lasciata all’utente.
Le fake news sono un fenomeno preoccupante, che mina la fiducia che i cittadini ripongono nei media. Combatterle è un dovere morale, civile e l’intelligenza artificiale sembra un valido alleato perché permette una prima automazione del controllo dei fatti con un’ottimizzazione dei tempi. Questo aiuta il lavoro degli analisti che si occupano di fact checking per il web, impiegando molto tempo per rilevare le false dichiarazione e poi rilasciare le informazioni verificate.
I ricercatori utilizzano diversi metodi per analizzare i siti dei media, gli account Twitter associati, la reputazione della fonte, il traffico web e altri fattori, con l’obiettivo finale di addestrare i sistemi di intelligenza artificiale ad elaborare classifiche di alta, media e bassa veridicità.
L’avanguardia della ricerca sull’IA si concentra sullo sviluppo di algoritmi di apprendimento profondo. In precedenza, i modelli di intelligenza artificiale si basavano sull’apprendimento automatico: venivano utilizzi regressioni statistiche, clustering e diversi matematici per prevedere i risultati in base alle tendenze dei dati storici. Diversamente, l’apprendimento profondo si basa sul concetto di reti neurali (modellate sul cervello umano) per consentire all’intelligenza artificiale di fare previsioni e decisioni in modo indipendente. Entrambi i modelli affondano le proprie radici nell’addestramento umano e, di conseguenza, alcuni sostengono che i pregiudizi o le percezioni dei soggetti che sviluppano l’IA si rifletteranno nella tecnologia. Costruire un set di dati imparziali per l’addestramento di un modello di intelligenza artificiale, quindi, è uno dei compiti più ardui.
È necessario lavorare ancora per rendere l’IA uno strumento quotidiano per la rilevazione notizie false e fuorvianti, ma i suoi potenziali vantaggi ne fanno un investimento promettente e l’app in via di sperimentazione dell’ingegnere calabrese ne è una prova concreta.
Fondamentale, però, è non dimenticare che l’intelligenza artificiale e l’automazione cercano una soluzione tecnica per quello che è un problema umano. Lo strumento imprescindibile per combattere il fenomeno delle fake news è sensibilizzare la popolazione. Istruzione, cultura e buon senso, inoltre, sono una tripletta da non dimenticare.