L’utilizzo non autorizzato e incontrollato degli strumenti di Intelligenza Artificiale da parte dei dipendenti di un’azienda può creare un senso di vulnerabilità all’interno dell’ufficio stesso.
Questa è la visione che National Cybersecurity Alliance (NCA) e CybSafe si sono fatte durante le stesura di un loro recente report, dove hanno osservato che oltre un terzo dei dipendenti che usano l’Intelligenza Artificiale per lavoro inviano informazioni sensibili a tali sistemi senza l’approvazione aziendale, così da realizzare il fenomeno della “shadow AI”.
Questo report, basato su un’indagine che ha reso partecipi più di 7.000 aderenti in sette Paesi, ha osservato che solo il 48% dei dipendenti sostiene di aver ricevuto una buona formazione sui rischi inerenti all’Intelligenza Artificiale. Nonostante tanti lavoratori non abbiano fatto formazione, durante l’indagine il 44% degli intervistati hanno dichiarato che fanno uso di strumenti di AI, come ChatGPT di OpenAI. Tra questi c’è chi usa gli strumenti di AI e ha confessato di aver inviato informazioni sensibili a tali piattaforme senza avvisare il datore di lavoro, una percentuale che sta aumentando soprattutto nei dipendenti delle generazioni più giovani.
Nel momento in cui questi lavoratori inviano dati aziendali agli strumenti di Intelligenza Artificiale, le organizzazioni perdono il controllo sul modo in cui tali informazioni vengono utilizzate e questo porta a diverse conseguenze come fughe di dati e attacchi informatici.
Quindi, per le aziende si crea un duplice problema. Da una parte c’è il rischio delle violazioni della sicurezza e l’altra faccia della medaglia è che gli uffici devono gestire un cambiamento culturale siccome si ha che fare con le generazioni più giovani (Millennials e Gen Z, ndr) che fanno uso dell’Intelligenza Artificiale sul lavoro.
Il report ha rivelato che ci sono una differenza generazionale nella fiducia verso l’AI e una crescente preoccupazione per il suo uso in attività criminali come frodi e disinformazione.
Inoltre, gli intervistati ritengono che la regolamentazione dell’IA debba essere affidata principalmente alle grandi aziende tecnologiche, seguite da autorità nazionali e governi, riflettendo una scarsa fiducia nella gestione responsabile di queste tecnologie. La diffusione della “shadow AI” rappresenta una sfida non solo tecnologica ma anche culturale, richiedendo alle aziende investimenti in formazione e regolamentazione per garantire la sicurezza e ridurre i rischi dell’uso improprio dell’AI.
M.P.