COME LE AI E CHATGPT STANNO RIVOLUZIONANDO LA SICUREZZA INFORMATICA

In particolare, l’intelligenza artificiale generativa sta assumendo un ruolo sempre più importante. Questo è stato l’argomento del panel event “How ChatGPT-like AIs will affect cybersecurity”, organizzato dall’associazione studentesca B.Cyber dell’Università Bocconi, a cui hanno partecipato diversi relatori di alto livello.

Mark Carman, professore in Data Science e Intelligenza Artificiale del Politecnico di Milano, ha approfondito gli aspetti tecnici di questi modelli AI, mettendo in luce l’enorme scala di dati richiesti per memorizzarli: oltre 800 GB. Ad esempio, per addestrare GPT-3 sono stati impiegati 500 miliardi di token di testo, con un costo approssimativo di 5 milioni di dollari. Questi modelli di intelligenza artificiale, sui quali si basa ChatGPT, possono essere usati anche per scopi malevoli. Ad esempio, la società statunitense Honest AI ha utilizzato il modello GPT-3 per creare Synthetic Personas, ovvero persone fittizie con un profilo social completo, in grado di condurre conversazioni coerenti con quanto già comunicato, permettendo così la creazione di massicce campagne malevole a basso costo.

Come ha evidenziato Stefano Zanero, Presidente del dipartimento dell’Informazione e Bioingegneria presso il Politecnico di Milano, questi modelli potrebbero potenzialmente essere utilizzati per attacchi di ingegneria sociale in modo più efficiente. Inoltre, le informazioni prodotte dal chatbot non sono sempre accurate e potrebbero portare a risultati errati. Queste tecnologie sono prodotti di aziende terze, e il loro uso potrebbe essere considerato una violazione di accordi di confidenzialità. È quindi necessario trovare vulnerabilità all’interno di ChatGPT o simili, che porterebbero a conseguenze disastrose.

Dunque, le risorse principali da proteggere sono i dati e la reputazione dell’azienda. Le informazioni prodotte dal chatbot non sono sempre accurate, e potrebbero portare a risultati errati. Dal punto di vista legale, Francesco Paolo Patti, Docente di Diritto privato dell’Università Bocconi, ha sottolineato che non si può attribuire una personalità giuridica a ChatGPT, in quanto è uno strumento e non un soggetto autonomo. Il problema della responsabilità è aperto e complesso: è riconducibile a OpenAI, la società proprietaria del sistema ChatGPT, o chi effettivamente ne fa uso illegale? La risposta dipende dal caso concreto.

Infine, Domenico Raguseo, responsabile della Unit di CyberSecurity del gruppo Expriva, ha parlato dell’innovazione digitale e della sua influenza sulla cybersecurity. Ha mostrato come l’innovazione crei divari e sfide tra attaccanti e difensori, e come questi ultimi debbano adattarsi alle nuove tecnologie per non soccombere. In ogni caso, l’uso dell’intelligenza artificiale generativa nella sicurezza informatica rappresenta una sfida e un’opportunità per il diritto e per la società, ma richiedono un approccio critico e consapevole da parte degli utenti e dei legislatori, per garantire il rispetto dei diritti fondamentali e dei principi democratici.

(F.S)