A lanciare l’allarme è stata la Internet watch fundation (Iwf), con sede nel Regno Unito, che ha dichiarato di aver trovato online quasi 3.000 immagini di abusi su minori create dall’Intelligenza artificiale che violano la legge. Stando a quanto dichiarato dalla fondazione, fotografie delle vittime di abusi nelle vita reale vengono integrate in modelli di Ai, i quali poi ne producono nuove rappresentazioni. La stessa tecnologia è stata anche utilizzata per “spogliare” immagini di bambini vestiti trovate online. Questo è quanto emerso da un’indagine della società compiuta sul dark web su 11.108 immagini, di cui 2.978 raffiguravano abusi sessuali su minori.
In un rapporto scritto, la Iwf ha esortato governi e fornitori di queste tecnologie ad agire rapidamente. «Non stiamo parlando del danno che l’Ai potrebbe causare con riferimento a questa delicata materia, ma di quello che sta già accadendo e deve essere affrontato subito», ha detto Dan Sexton, responsabile tecnologico di Internet watch fundation.
Anche Susie Hargreaves, amministratore delegato della società, ha voluto richiamare l’attenzione su questa problematica: «Già all’inizio dell’anno avevamo allertato che presto le immagini dell’Intelligenza artificiale sarebbero potute diventare indistinguibili dalle immagini reali di bambini che subiscono abusi sessuali e che potremmo iniziare a vedere queste immagini proliferare in numero molto maggiore. Ora abbiamo superato quel punto».
Il materiale pedopornografico generato dall’Intelligenza artificiale è illegale nel Regno Unito ai sensi del Protection of children act del 1978, che punisce lo scatto, la distribuzione e il possesso di una “fotografia o pseudofotografia indecente” di un minore. Inoltre, a breve diventerà legge anche il decreto sulla sicurezza online che vieta la diffusione su Internet di tali immagini e obbliga le società di social media ad impedirne la comparsa sulle loro piattaforme.
Il rapporto della Internet watch fundation si rivolge in particolare all’Unione europea, dove è in corso un dibattito sulle misure di sorveglianza che potrebbero scansionare automaticamente le app di messaggistica alla ricerca di immagini sospette di abusi sessuali di minori. Uno dei principali obiettivi del lavoro del gruppo è prevenire che precedenti vittime di abusi sessuali vengano nuovamente violate attraverso la distribuzione delle loro foto.
F. S.