La proposta di un nuovo regolamento dell’Unione europea contro la diffusione di materiale pedopornografico online (CSAM) è stata criticata da scienziati, esperti di privacy e alcune organizzazioni non governative.
Il regolamento proposto elabora un’architettura molto complessa, che crea delle basi legali per l’uso di sistemi di intelligenza artificiale capaci di individuare fotografie, video, audio e testi nei messaggi privati che potrebbero riferirsi sia a violenze che a tentativi di adescamento di minori.
L’idea proposta dalla Commissione è di lasciare aperta una “porta sul retro” delle nostre comunicazioni online – backdoor è il termine informatico che indica un codice grazie al quale un utente può avere accesso completo ad un sito, anche se privo di autorizzazioni.
In altri termini la proposta prevede che la messaggistica di ogni profilo utente, che sia su un’applicazione, un sito o una piattaforma, venga monitorata alla ricerca di contenuti sospetti o illegali.
La nuova legge, avanzata dalla Commissaria per gli affari interni Ylva Johansson, aprirebbe le porte all’uso di sistemi di intelligenza artificiale per scansionare comunicazioni private alla ricerca di CSAM, tecnologia che non sempre fornisce risultati affidabili.
Già ad aprile 2022 Johansson aveva dichiarato che la lotta alla pedopornografia era la sua «priorità numero uno», nonostante il mandato di DG Home, la Direzione generale della Commissione guidata dalla politica svedese, sia incentrato sui temi delle migrazioni e della sicurezza interna dell’Unione e non sul mondo digitale.
Eppure sono anni che Johansson ha intrapreso questa battaglia, anche contro il parere del Garante per la protezione dei dati personali dell’Unione europea, Wojciech Wiewiórowski.
Nel 2020, un anno dopo la nomina di Johansson a commissaria, Wiewiórowski l’ha messa in guardia contro il rischio di scivolare verso misure particolarmente invasive della privacy dei cittadini europei con il pretesto della lotta ai contenuti pedopornografici.
Approvare il suo pacchetto di riforme, spiega Wiewiórowski a IrpiMedia darebbe alla luce un’infrastruttura potenzialmente capace di entrare in ogni conversazione, mettendo fine alla crittografia, il sistema attraverso cui si può rendere una conversazione davvero privata.
La proposta prevede l’obbligo per piattaforme digitali e app di messaggistica usate nell’Ue – da Facebook fino ai gaming online – di identificare e segnalare qualsiasi traccia, o potenziale traccia di materiale riconducibile a abusi contro i minori, cercando sia nei loro database che nei messaggi scambiati tra clienti.
Previsto dalla proposta di Johansson, il Centro europeo per prevenire e combattere l’abuso sessuale dei minori sarebbe una nuova agenzia legata alla Commissione con la funzione di coordinare altri enti nazionali allo scopo di implementare la legislazione europea sullo CSAM.
Perseguire un crimine informatico in un Paese, tuttavia, è prerogativa delle magistrature nazionali. Gli ordini di ricerca sono cruciali per definire quante persone potranno essere monitorate e per quanto tempo.
Ad esempio, nel caso in cui il Centro giudichi a rischio un sito di gaming online in cui gli utenti possono utilizzare chat private, anche con profili non identificabili. Su indicazione del Centro, i procuratori del Paese in cui hanno sede il sito o i server emetteranno un ordine di ricerca attraverso il quale metteranno sotto sorveglianza tutti gli utenti per un periodo definito che si può estendere.
Impostazione, che tuttavia rende bersagli di un ordine di ricerca tutti gli utenti di una app o di un sito, invece di un numero più ristretto di sospettati.
Europol ha risposto a IrpiMedia che «la nostra posizione come Agenzia europea di cooperazione di polizia è che dobbiamo ricevere informazioni importanti per proteggere l’Ue e i suoi cittadini dal crimine grave e organizzato, incluso l’abuso sessuale su minori».
L’Innovation Hub, ovvero il dipartimento di ricerca e sviluppo dell’Agenzia, ha già iniziato a sviluppare sistemi d’intelligenza artificiale per riconoscere CSAM. Nel luglio 2023, un documento dell’Ufficio per i diritti fondamentali di Europol esprimeva preoccupazioni sulle «implicazioni per i diritti fondamentali» del progetto, derivanti da «risultati distorti, falsi positivi o falsi negativi».
I punti della discordia, sia nel Consiglio europeo che all’interno della Commissione del Parlamento Ue che guida i negoziati, sono l’inclusione dei sistemi che usano crittografia end-to-end, e l’estensione degli ordini di ricerca non solo a CSAM già catalogati in banche dati, ma anche a nuovo materiale e tentativi di adescamento.
Tuttavia per riconoscere quest’ultimi è necessario utilizzare tecnologie di scansione particolarmente intrusive, che metterebbero a rischio la privacy dei cittadini europei.
C.L.