Secondo l’organizzazione per i diritti digitali Noyb, ChatGPT di OpenAI continua a generare informazioni false sulle persone, violando le disposizioni del Regolamento generale sulla protezione dei dati dell’Unione europea (GDPR). Noyb, con sede in Austria, ha presentato denuncia contro OpenAI presso il Garante della Privacy austriaco, chiedendo di intervenire nei confronti della compagnia statunitense per garantire il rispetto delle regole europee.
Secondo il GDPR, tutte le informazioni relative alle persone diffuse online devono essere accurate e precise, e gli utenti devono avere accesso completo a queste informazioni, così come alle fonti da cui provengono. Tuttavia, secondo Noyb, OpenAI ha ammesso apertamente di non essere in grado né di correggere le informazioni errate fornite da ChatGPT, le cosiddette “allucinazioni”, né di risalire alla fonte. Inoltre, OpenAI non sarebbe a conoscenza delle informazioni personali memorizzate da ChatGPT.
Come riportato sul sito di Noyb, OpenAI ha dichiarato semplicemente che “l’accuratezza fattuale nei modelli linguistici di grandi dimensioni”, come i chatbot con Intelligenza Artificiale, “rimane un’area di ricerca attiva”. In altre parole, OpenAI ammette di non avere ancora il controllo su ciò che dice ChatGPT. Tuttavia, fornire informazioni errate, fuorvianti o inventate può essere molto dannoso, soprattutto se riguardano persone. Secondo un’indagine del New York Times, i chatbot forniscono informazioni inventate tra il 3% e il 27% delle volte.
“Inventare informazioni false è di per sé problematico. Ma quando si tratta di informazioni false sulle persone, le conseguenze possono essere gravi. È evidente che le aziende attualmente non sono in grado di rendere i chatbot come ChatGPT conformi alla legge dell’Unione europea quando trattano dati personali. Se un sistema non è in grado di produrre risultati accurati e trasparenti, non può essere utilizzato per generare dati sulle persone. La tecnologia deve seguire i requisiti legali, non il contrario”, ha dichiarato Maarje de Graaf, avvocata specializzata nella protezione dei dati presso Noyb.
L’organizzazione ha chiesto al Garante della Privacy austriaco di intervenire contro OpenAI, aprendo un’indagine che porti all’imposizione di misure correttive, sanzioni e a una decisione definitiva in merito alle “allucinazioni” di ChatGPT.
LG