Sta diventando sempre più difficile cercare di capire quali contenuti online, frutto dell’Intelligenza Artificiale, siano effettivamente reali. Non è certo, infatti, che un’immagine o un video che diventi virale sia di conseguenza vero. Il problema che si affianca alla disinformazione online e che sta emergendo con la crescente affermazione dell’AI è la credibilità automatizzata, ossia si tende a considerare la viralità di un contenuto come criterio per la sua credibilità, senza considerare se siano artefatti ingannevoli o basati sulla verità.
Al centro delle polemiche c’è l’app Sora con il suo video generator AI Sora2. Questa piattaforma ha reso la generazione automatica di immagini un’esperienza di pubblicazione sociale, presentando un feed pubblico, la possibilità di commento e di remix dei contenuti generati. Oltre, quindi, alla semplice creazione di prodotti digitali si passa allo step della diffusione di ciò che viene generato, producendo un valore informativo, economico e politico.
Le funzioni che l’AI Sora2 ha introdotto (come la controllabilità temporale e spaziale dei prodotti creati e l’opzione “cameo”, il cui rischio principale è il deepfake) e la sua dimensione sociale (la possibilità di diffondere video ed interagire con quelli altrui), stanno dimostrando come la tecnologia anticipi la legge e cerchi di imporre le proprie regole.
Negli ultimi anni, le normative europee ed internazionali stanno cercando di adattarsi ai cambiamenti introdotti dalle tecnologie intelligenti, con l’obiettivo di stabilire e regolamentare i limiti e i rischi, sempre più crescenti, in cui ciascun utente può imbattersi.
La gestione della viralità, la disinformazione, la diffusione di deepfake lesivi della reputazione altrui, la gestione della propria immagine online (caso eclatante quello della “resurrezione digitale”), la monetizzazione sui contenuti generati dall’AI e la questione della proprietà intellettuale digitale sono tutti fattori di rischio su cui si sta ancora lavorando sul piano giuridico, anche se sono ancora presenti dei vuoti normativi. Il diritto all’immagine postuma resta privo di tutele chiare. L’AI crea identità reiterabili, sfidando norme inadeguate e insufficienti. La legge italiana sull’AI introduce il reato di deepfake, ma presenta delle criticità. La somiglianza algoritmica solleva nuovi problemi di copyright, allontanandosi dalle categorie tradizionali del diritto d’autore.
C.Z.

















