Nell’ultimo tempo si è notato, come è stato comunicato da OpenAI, che è aumentato il numero di utenti malintenzionati che più volte hanno cercato di usare ChatGpt per creare contenuti fake (come articoli e commenti sui social media, ndr) con lo scopo di influenzare le elezioni presidenziali statunitensi. Infatti, dall’inizio di quest’anno fino ad oggi si sono verificati più di 20 tentativi neutralizzati dalla compagnia e lo scorso agosto diversi account ChatGpt sono stati sospesi dopo che erano stati usati per diffondere delle notizie falsi riguardanti tematiche di attualità. Un episodio simile è accaduto anche nel mese di luglio in Ruanda (Paese in Africa orientale, ndr) dove lo stesso OpenAI aveva vietato ad alcuni utenti di fare uso della chatbot della piattaforma AI per creare commenti sulle elezioni del paese africano per poi essere stati pubblicati su X. E ancora, a maggio stesso episodio accaduto durante le elezioni in India.
La buona notizia è che fortunatamente nessuno di questi contenuti generati dall’Intelligenza Artificiale non sono stati mai diventati così tanto virali da influenzare il pubblico sul voto alle elezioni. E questo vale tanto per gli USA quanto per il Ruanda.
Nello stesso tempo, però, c’è una grande preoccupazione per la diffusione delle fake news che riguardano le elezioni presidenziali sia sui social network ma anche su altre piattaforme di comunicazione. Infatti, il numero di deepake realizzati dall’AI e secondo i dati di Clarity (società di apprendimento automatico, ndr) è aumentato del 90% anno su anno e non fa altro che aumentare la preoccupazione.
Da un po’ di tempo il Dipartimento della Sicurezza Nazionale degli Usa ha notato che da molto tempo Cina, Russia e Iran stanno cercando di influenzare le elezioni del prossimo 5 novembre mediante diversi strumenti di hakeraggio tra cui ChatGpt.
M.P.