LE BIG TECH FIRMANO UN PATTO CONTRO LA DISINFORMAZIONE IN VISTA DELLE ELEZIONI

Secondo quanto riportato dall’agenzia Reuters, un gruppo di 20 aziende hi-tech ha siglato un patto per prevenire l’interferenza dei contenuti ingannevoli generati dall’Intelligenza Artificiale durante le elezioni. Quest’anno ci si recherà alle urne in molti Paesi e la preoccupazione per la messa a repentaglio dell’integrità dei processi democratici è alta.  

Tra le aziende coinvolte compaiono OpenAI, Microsoft, Adobe, Meta, Google, Amazon e TikTok. L’accordo, presentato alla Conferenza sulla sicurezza di Monaco, prevede lo sviluppo di strumenti per il rilevamento di immagini, video e audio ingannevoli prodotti dall’AI (deepfake), oltre alla creazione di campagne di sensibilizzazione pubblica per educare i cittadini su tali contenuti. L’obiettivo è garantire agli elettori il diritto di fare scelte ben informate e non influenzate da notizie fuorvianti. 

Risulta quindi centrale la collaborazione tra le big tech, le piattaforme online e altre parti sociali per preservare l’integrità elettorale e la fiducia pubblica. L’accordo non chiarisce i dettagli su come i provvedimenti saranno rispettati, ma sottolinea l’impegno per la trasparenza, evitando però la rimozione diretta dei contenuti. Questo perché rimuovere contenuti durante le campagne elettorali potrebbe generare contestazioni giuridiche e processi.  

Meta, TikTok e Google si impegnano a richiedere agli utenti di rendere noto quando pubblicano contenuti realistici generati dall’AI. 

TikTok vieta i deepfake di personaggi pubblici usati per sponsorizzazioni politiche o commerciali. 

OpenAI non consente che i suoi strumenti vengano utilizzati per campagne politiche, per creare chatbot che si spacciano per candidati o per scoraggiare il voto. 

Meta inizierà a etichettare le immagini create con l’AI, utilizzando marcatori invisibili, e già richiede agli inserzionisti di rivelare l’utilizzo dell’Intelligenza Artificiale negli annunci riguardanti elezioni, politica e questioni sociali.  

M.T.