Come altre importanti aziende tecnologiche, anche Meta ha passato l’ultimo anno a promettere di accelerare la diffusione dell’Intelligenza Artificiale generativa. Il colosso ha riconosciuto di doversi occupare anche dei rischi della tecnologia, annunciando una nuova politica per l’etichettatura delle immagini generate dall’AI pubblicate su Facebook, Instagram e Threads che prevede l’inserimento di avvertenze per segnalare agli utenti l’origine dei contenuti. A comunicarlo è stato Nick Clegg, responsabile degli affari internazionali di Meta, attraverso un post condiviso sul blog dell’azienda. La nuova pratica dovrebbe ridurre il rischio di disinformazione causata dalle immagini generate dall’AI e spacciate per foto reali. Meta etichetta già le immagini generate con i propri strumenti di Intelligenza Artificiale, usando il tag “Imagined with AI” (“immaginato con l’ausilio dell’AI”) e il prossimo passo per l’azienda sarà quello di aiutare le persone a capire quando il contenuto fotorealistico che stanno vedendo è stato creato con l’AI rilevando ed etichettando, per quanto possibile, le immagini generate dai servizi di Intelligenza Artificiale delle piattaforme rivali come OpenAI, Google, Midjourney, Microsoft, Adobe, eccetera.
È ancora presto per sapere con certezza quando Meta riuscirà a etichettare le immagini create sfruttando i software delle altre aziende. Per il momento si sa che l’azienda ci sta lavorando e che il progetto è in fase di realizzazione. Le etichette che verranno create per le immagini saranno disponibili in tutte le lingue supportate dalle piattaforme, in modo da non escludere nessun utente.
“Questa scelta è stata presa per assecondare le esigenze degli utenti perché i nostri utenti ci hanno fatto sapere di apprezzare la trasparenza quando si tratta di intelligenza artificiale ed è quindi importante aiutarli a capire quando i contenuti che vedono sono stati creati con essa”, ha spiegato Clegg. Inoltre, per il momento, le etichette in programma riguarderanno solamente le immagini ma l’azienda darà anche la possibilità agli utenti che condividono file audio o video creati con l’Intelligenza Artificiale di segnalarli come tali, in modo da non trarre in inganno gli utenti.
Meta ha annunciato che sta studiando per sviluppare una tecnologia in grado di rilevare automaticamente i contenuti generati dall’AI e che sta lavorando con altre aziende del settore per arrivare a uno standard tecnico comune in grado di segnalare quando un contenuto è stato realizzato utilizzando l’AI. Secondo la compagnia questi indicatori “standard” saranno in grado di rilevare l’artificialità delle immagini in maniera automatica.
C.T.