L’IDENTITÀ DIGITALE È A RISCHIO A CAUSA DEI DEEPFAKE

I deepfake sono dei contenuti generati dall’Intelligenza Artificiale che imitano  il volto, la voce e i movimenti delle persone talmente tanto realisticamente da riuscire ad ingannare anche l’occhio più attento.

Questo tipo di manipolazione digitale non è più confinato a casi isolati o a episodi di intrattenimento, ma sta diventando uno strumento sofisticato e insidioso nelle mani di truffatori e manipolatori. Sono numerosi i casi di versioni false di volti noti, tra cui politici come Elly Schlein, Giorgia Meloni o Giuseppe Conte, e personaggi della TV come Mara Venier o Fabio Fazio, coinvolti in pubblicità fraudolente o campagne ingannevoli.

Questi attacchi non sono solo truffe economiche, ma mettono a rischio la credibilità delle persone, la sicurezza delle imprese e la dignità individuale. Ad essere particolarmente allarmanti sono poi quei deepfake a sfondo sessuale che colpiscono in particolare donne e minoranze, spesso con il solo scopo di umiliare o ricattare le vittime.

In questo scenario complesso, il governo danese ha proposto una riforma pionieristica che intende includere corpo, volto e voce nel perimetro della tutela del diritto d’autore. Si tratterebbe dunque di riconoscere legalmente l’identità fisica e vocale come una forma di proprietà intellettuale.

Il disegno di legge, che sarà presentato al Parlamento dopo l’estate, ha già raccolto un ampio consenso. Il ministro della Cultura Jakob Engel-Schmidt ha spiegato che l’obiettivo è semplice ma rivoluzionario: garantire a ogni individuo il controllo sulla propria immagine e sul proprio suono.

La riforma, che se approvata sarà la prima norma in Europa a offrire protezione legale contro la manipolazione dell’identità tramite AI, prevede anche l’elaborazione di strumenti di tutela efficaci. Chi subisce un deepfake potrà infatti chiederne la rimozione e, nei casi più gravi, ottenere un risarcimento, e le piattaforme che ospitano contenuti manipolati rischieranno sanzioni severe se non agiranno con prontezza. La volontà è quella di rendere il danno economico così alto da costringere le big tech ad agire con responsabilità.

La legge però da sola non basta, serve consapevolezza. Le persone devono essere educate a riconoscere i segnali di un contenuto artefatto, come il labiale che non corrisponde all’audio, le immagini distorte o i movimenti innaturali. La difesa più efficace contro i deepfake infatti non è la censura, ma la preparazione, e ad essa devono contribuire le scuole, le aziende e gli stessi social media.

 

S.B.


Diritto dell’informazione

“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”

Continua a seguirci!

▶️ https://dirittodellinformazione.it/chi-siamo/