Si chiama Replika, ed è una delle ultime invenzioni dell’intelligenza artificiale. Il suo scopo è quello di essere più ‘’umana’’ possibile per poter fornire ai suoi interlocutori conversazioni profonde, basate sugli interessi dell’umano e magari fornendo anche un aiuto psicologico.
Sembra un’amica perfetta, una soluzione ideale per chi si sente solo, ha bisogno di aiuto o non è in grado di instaurare relazioni interpersonali. Leggendo i commenti a proposito di Replika, ci si accorge che chi ne ha usufruito è rimasto sbalordito e soddisfatto. Ma possiamo davvero fidarci di questa nuova ‘’amica’’?
Decisamente no! A dirlo è stato addirittura un provvedimento dell’Autorità Garante, che ha disposto, nei confronti della società americana proprietaria dell’algoritmo, un provvedimento di limitazione provvisoria del trattamento dei dati. Questi dati meriterebbero di essere trattati in modo un po’ più serio. È stata infatti chiesta una bozza di regolamento europeo sull’intelligenza artificiale proposta ad aprile 2021 dal Parlamento Europeo.
Presentato come in grado di migliorare il benessere emotivo dell’utente, aiuterebbe l’utente a comprendere i propri pensieri e calmare l’ansia, attraverso la gestione dello stress, la socializzazione e la ricerca dell’amore. Ha caratteristiche che, intervenendo sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva. Manca peraltro ogni meccanismo di verifica dell’età: filtri per i minori, ma anche blocchi dell’app di fronte a dichiarazioni in cui l’utente espliciti la propria minore età. Durante la fase di creazione di un account la piattaforma si limita a richiedere solo nome, e-mail e genere. E la proposizione di “risposte” da parte del chatbot risulta spesso palesemente in contrasto con le tutele rafforzate che vanno assicurate ai minori e a tutti i soggetti più fragili.
Bisogna poi anche considerare che alcuni temi intimi o, legati alla salute mentale non dovrebbero essere discussi con una macchina programmata da qualche informatico e imposta al mercato da qualche imprenditore con il principale scopo di trarne profitto.
Le recenti notizie di stampa e l’attività istruttoria del Garante hanno evidenziato che l’applicazione presenta concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo e più in generale per le caratteristiche dell’algoritmo di influenzare l’umore di una persona. Inoltre, la società specializzata in cybersecurity nata al Politecnico di Torino, ha individuato un ulteriore rischio nel “spear phishing“. Si tratta di una tecnica di phishing che consiste nell’indurre l’interessato a fornire i propri dati personali e ciò viene fatto sfruttando link che conducono a pagine quasi identiche all’originale.
(G.S)