SPAGNA, FALSE IMMAGINI DI NUDO CREATE CON L’INTELLIGENZA ARTIFICIALE

Ad Almendralejo, città di 30mila abitanti situata nel sud della Spagna, si è verificato uno spiacevole evento che permette di riflettere, ancora una volta, sui rischi e le conseguenze negative correlate a un utilizzo improprio dell’intelligenza artificiale.

Dieci adolescenti, di età compresa tra i 12 e i 14 anni, hanno utilizzato un software AI per creare dei fotomontaggi ritraenti delle loro coetanee nude. Successivamente, hanno diffuso tali immagini sia sui social network sia in delle chat private, il tutto all’insaputa delle vittime, ragazzine di un’età compresa tra 11 e 17 anni. Come se non bastasse, alcuni dei ragazzi hanno anche chiesto soldi alle vittime per non far girare il materiale in rete, ricadendo dunque non solo nel reato di produzione di materiale pedopornografico, ma anche in quello di estorsione.

Alla base di tale gesto ci sarebbero motivazioni legate ad una vendetta personale da parte del gruppo di adolescenti, tre dei quali sono responsabili della creazione delle immagini e sette della loro diffusione.

A scoprire il misfatto e portare alla luce la triste dinamica è stata Miriam Al Adib, ginecologa e madre di una delle vittime. La donna ha denunciato pubblicamente il fatto su Instagram, invitando le altre ragazze a farsi coraggio e rivolgersi alle autorità competenti. Il risultato è che la polizia di Almendralejo ha ricevuto una ventina di segnalazioni, numero che potrebbe anche aumentare nei prossimi giorni.

I fotomontaggi sono stati creati utilizzando un’applicazione di intelligenza artificiale, capace di generare immagini di nudo molto realistiche, al punto tale che una delle vittime ha dichiarato che ciò che ha subito è paragonabile a una violenza sessuale. Inoltre, dalle testimonianze raccolte dai giornali, viene fuori che alcune delle ragazze che hanno denunciato si sono chiuse in casa e presentano i sintomi di ansia e depressione.

In conclusione, se già la diffusione non consensuale di immagini e video a sfondo sessuale è un reato in aumento, adesso si aggiunge anche la variabile dell’AI, capace di trasformare delle normali foto in immagini di nudo, che possono essere poi usate, come accaduto in questo caso, come materiale di ricatto. Come se non bastasse, lo scorso anno, il 19 settembre, la polizia di Almendralejo aveva già ricevuto denunce di diffusione illecita di materiale sessuale, e le vittime sostenevano che le immagini fossero state manipolate grazie all’uso dell’AI. In quell’occasione, ad aver sporto denuncia erano state tutte ragazze minorenni.

 

SF