L’autorità italiana per la protezione dei dati personali ha in programma di rivedere la conformità alle norme europee di altre piattaforme di intelligenza artificiale, assumendo anche esperti di AI. A marzo, dopo una verifica di mancata conformità a tali norme, aveva vietato temporaneamente il bot ChatGPT di OpenAI, sostenuto da Microsoft Corp. il Garante, in particolare, aveva utilizzato le disposizioni del GDPR che proteggono i minorenni e garantiscono alle persone il diritto di richiedere la cancellazione e di opporsi all’uso dei loro dati personali, e aveva chiesto ad OpenAI di apportare dei miglioramenti per la sicurezza degli utenti.
Il successo di ChatGPT ha spinto le organizzazioni ad alta tecnologia, da Alphabet a Meta, a promuovere le proprie versioni dei chatbot. Il Garante prevede ora di avviare un’indagine anche sulle applicazioni di intelligenza artificiale create dalle altre multinazionali. Agostino Ghiglia, membro del consiglio di amministrazione del Garante ha detto, “abbiamo in programma di avviare una revisione ad ampio raggio delle applicazioni di AI generativa e di apprendimento automatico disponibili online, perché vogliamo capire se questi nuovi strumenti stanno affrontando questioni legate alla protezione dei dati e alla conformità alle leggi sulla privacy – e avvieremo nuove indagini, se necessario”.
L’autorità italiana dichiara inoltre di star cercando “tre consulenti AI perché siamo consapevoli che questi strumenti si stanno evolvendo molto rapidamente e abbiamo bisogno di esperti con competenze tecniche per aiutarci nelle nostre attività di protezione dei dati“.
I legislatori e i governi di tutto il mondo intanto stanno discutendo nuove leggi ma ci vorranno anni perché la potenziale nuova legislazione che regolamenta l’AI entri in vigore. “Ecco perché abbiamo deciso di agire rapidamente con ChatGPT”, ha detto Ghiglia.
(C.D.G.)