Nei mesi scorsi è stato pubblicato il primo documento congiunto internazionale per un utilizzo sicuro dell’Intelligenza Artificiale (“Guidelines for secure AI system development”). Firmate da 23 agenzie cyber di 18 Paesi, tra cui l’Agenzia per la Cybersicurezza Nazionale, le linee guida mirano ad assistere gli sviluppatori nella creazione di un’Intelligenza Artificiale responsabile, etica e sicura.
Tra i Paesi che hanno contribuito alla guida c’è anche la Francia, rappresentata dall’ANSSI (Agence Nationale de la Sécurité des Systèmes d’Information), un’autorità pubblica sottoposta a diretto controllo governativo, con l’obbligo di rendere conto al Segretario Generale per la Difesa e la Sicurezza Nazionale. Recentemente, l’ANSSI ha pubblicato un documento focalizzato sui rischi e sulle migliori pratiche legate all’uso di sistemi basati sull’AI generativa.
Il white paper “Recommandations de sécurité pour un système d’IA générative” è il risultato di una presa di coscienza da parte dell’ANSSI, la quale ha riconosciuto che la rapida proliferazione degli strumenti basati sull’Intelligenza Artificiale generativa richiede una particolare attenzione da parte delle autorità pubbliche e delle imprese coinvolte.
Se da un lato c’è un progresso tecnologico in rapida crescita, dall’altro c’è una sempre più crescente esposizione alle minacce cyber. Di conseguenza, l’AI generativa e il suo impatto introducono nuove sfide in materia di sicurezza informatica, che richiedono una conoscenza approfondita del tema.
Il documento dell’ANSSI fornisce raccomandazioni che vanno dalla fase di formazione alla fase di implementazione e produzione dei sistemi basati sull’AI generativa. Esso affronta anche il tema dell’AI generativa come strumento di attacco in mano ai cybercriminali.
Tornando indietro nel tempo, lo scorso gennaio in Francia, la CNIL (Commission Nationale de l’Informatique et des Libertés), responsabile della supervisione degli algoritmi di Intelligenza Artificiale, ha istituito un dipartimento interno dedicato all’AI per acquisire le competenze e le conoscenze necessarie.
Pochi mesi dopo, la CNIL ha pubblicato un piano d’azione per migliorare la comprensione delle tecnologie di AI generativa e delle questioni legali ed etiche ad esse collegate. Il piano d’azione ha quattro obiettivi: comprendere il funzionamento dei sistemi di AI e il loro impatto sulle persone; orientare e regolamentare lo sviluppo dell’AI nel rispetto dei dati personali; unire e supportare gli attori innovativi dell’ecosistema dell’AI in Francia e nel resto d’Europa; auditare e controllare i sistemi di AI e proteggere gli individui.
LG