Oramai ogni giorno sentiamo parlare dei deepfake, ovvero una tecnica per la sintesi dell’indagine umana basata sull’Intelligenza Artificiale. Questa tecnica permette di combinare e sovrapporre immagini e video esistenti con immagini e video originali.
All’inizio questo tipo di immagini e video venivano generate per intrattenere; ora vengono utilizzate per scopi meno genuini.
I primi attacchi venivano fatti a personaggi pubblici, imprese, enti governativi e sanitari. Delle ricerche evidenziano che più della metà delle aziende ha subito attacchi da parte di deepfake.
Il problema dei deepfake per la sicurezza nazionale è che questi possono essere trasformati in armi, permettendo così la misinformation ovvero condivisione di informazioni errate, la disinformation ossia la disinfomazione e la malinformation che sono le informazioni fatte per manipolare.
Ci viene in soccorso l’Intelligenza Artificiale, con cui ora è possibile rilevare i deepfake.
Con il continuo miglioramento di questa tecnologia i metodi diventeranno sempre più accurati.
Anche senza l’aiuto dell’AI, nonostante i deepfake diventino sempre più realistici, ci sono indizi specifici che ci aiutano a smascherare queste falsificazioni. Lo possiamo notare da alcune evidenti anomalie facciali dove si vedono per esempio delle incongruenze nei dettagli o alcuni movimenti innaturali del corpo.
Gli studi per il riconoscimento dei deepfake sono un passo importante per lotta alla disinformazione. Ma, purtroppo, non sono una soluzione definitiva. Per ovviare a questo problema, in maniera più concreta, molti centri di ricerca hanno sviluppato tecniche e strumenti per stabilire l’autenticità.
Un metodo elaborato dal CERT del Software Engineering Institute si basa su tre principi guida.
Il primo è l’automation che è la possibilità di abilitare la messa in pratica di migliaia di video su larga scala; poi il secondo punto è il mixed-initiative ovvero l’opportunità di sfruttare sia l’intelligenza umana che quella artificiale. Infine abbiamo l’ensemble techniques che consente una strategia multi livello.
Quindi per la protezione degli individui sono necessari dei rilevatori di deepfake, ma oltre alle soluzioni tecniche, che come abbiamo detto sono temporanee, bisogna costruire una consapevolezza delle pressiono rispetto a questo tipo di minaccia. Inoltre i governi stanno implementando le legislazioni per migliorare la consapevolezza e la comprensione di queste minacce.
F.M.