Nel 2025, il sistema giuridico italiano ha tentato di arginare questo fenomeno introducendo l’articolo 612-quater del Codice Penale. Questa norma punisce chi diffonde contenuti generati con l’AI al fine di ingannare il pubblico o alterare la percezione della realtà per danneggiare qualcuno. La pena prevista è severa e può arrivare fino a cinque anni di reclusione. L’obiettivo è tutelare la dignità, la reputazione e la riservatezza delle vittime da un fenomeno che può stravolgere la vita privata e sociale di molte persone. La norma non colpisce chiunque utilizzi contenuti generati con l’Intelligenza Artificiale, ma chi li diffonde senza il consenso della persona raffigurata.
In questo scenario, la digital forensics gioca un ruolo centrale. È una disciplina che si occupa di identificare e analizzare prove digitali per stabilire l’autenticità di un contenuto. La sfida principale è che gli algoritmi di AI stanno diventando sempre più sofisticati nel nascondere le tracce di manipolazione, rendendo sempre più difficile per gli esperti distinguere un contenuto autentico da uno creato a computer. Per questo motivo la digital forensics sta sviluppando nuove metodologie di indagine sempre più affinate.
In conclusione, la protezione della propria immagine digitale è diventata una priorità. Il deepfake si è trasformato in un potenziale strumento di reato contro il quale la legge cerca di tutelare il diritto di ognuno a non vedere la propria identità deformata dagli algoritmi, rendendo punibile la sola diffusione illecita di questi contenuti.
F.B.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















