Il sistema FakeCatcher (ovvero che “coglie ciò che è falso”) si basa sul machine learning che fa peraltro da fondamenta anche per i deepfake stessi: la tecnologia di Intel si concentra appunto sulla fotopletismografia ovvero sull’osservazione del flusso sanguigno che irrora vasi e capillari sul volto. Si tratta di qualcosa di quasi invisibile all’occhio umano, ma che può essere percepito da questo strumento digitale che riconosce il cambiamento di colore all’interno dei pixel, una sorta di danza che accompagna ogni pulsazione.
Dato che i deepfake incollano in modo evoluto e ultrarealistico i tratti del volto della “vittima” all’interno del corpo dell’ospite, può esserci una discrepanza tra le osservazioni dei vari flussi sanguigni in parti diverse del volto, del collo o di altre parti visibili. Ed è proprio qui che casca il deepfake, rilevando la sua natura.
Secondo i creatori, il livello di precisione del 96% scende a un più che onorevole 91% nel caso in cui i video di deepfake siano a bassa risoluzione oppure con applicati filtri.
Ci sono diversi caso d’uso potenziali per FakeCatcher. Le piattaforme di social media potrebbero sfruttare la tecnologia per impedire agli utenti di caricare video deepfake dannosi per la reputazione altrui, ma anche fermare vere e proprie campagne di disinformazione studiate a tavolino.
Le testate giornalistiche potrebbero invece utilizzare il FakeCatcher per evitare di dare rilevanza inavvertitamente a video manipolati, evitando di cadere nella trappola dei deepfake creati a scopo di diffondere notizie false.