ChatGPT, lanciato sul mercato nel novembre 2022 dalla società di ricerca statunitense OpenAI, ha l’obiettivo di rendere l’Intelligenza Artificiale un beneficio per tutti. Le sue funzioni sono molteplici: si va dalla stesura, alla revisione, alla traduzione di testi e così via…
Una delle principali problematiche di ChatGPT è la produzione di fake news, che riguarda sia le immagini sia i testi scritti. Infatti, ChatGPT non solo può attingere da fonti di disinformazione online, ma può produrre anche testi ingannevoli.
Un primo passo per far fronte alla disinformazione che potrebbe crearsi tramite i testi prodotti da ChatGPT, è sicuramente quello di imparare ad essere più selettivi nello scegliere le notizie a cui riservare la propria fiducia. Un’altra soluzione plausibile è quella di ricorrere a servizi a pagamento, a garanzia della veridicità delle informazioni.
Tra gli altri limiti di ChatGPT, riconosciuti dalla stessa OpenAI, risulta anche la produzione di risposte plausibili, ma senza senso o errate. Questo avviene soprattutto nei casi di domande ambigue o con sfumature linguistiche, difficilmente comprensibili dall’algoritmo. Oltre a ciò, può capitare che il programma non riconosca alcuni input generati dagli utenti. ChatGPT è estremamente facile, veloce, ma, come abbiamo visto, i risultati possono essere superficiali.
È chiaro che l’aggiornamento GPT-4 non è stato addestrato in modo efficace con dati progettati per limitare la diffusione della disinformazione. Ciò significa che la nuova versione di ChatGPT di OpenAI potrebbe essere utilizzata da malintenzionati come arma per diffondere disinformazione a un livello senza precedenti, in modo più efficace, persuasivo e pericoloso.
A.L