A livello istituzionale, si continuano a compiere passi importanti per quanto concerne la sicurezza dei sistemi di intelligenza artificiale.
Nei giorni scorsi, nel Regno Unito, ha avuto luogo l’AI Safety Summit, evento in cui politici, esperti di tecnologia e rappresentanti della società civile, provenienti da 18 Paesi, si sono incontrati per discutere dei rischi e delle opportunità dell’AI e per sviluppare un approccio condiviso in merito alla sicurezza.
Proprio in questo contesto si è giunti alla creazione di un documento che ha come obiettivo la creazione di linee guida comuni per supportare gli sviluppatori di sistemi basati sull’AI, con lo scopo di garantire tecnologie responsabili, etiche e sicure, assicurando così il benessere della società in futuro.
Il documento è stato firmato da tutti i 18 Paesi partecipanti, compresa l’Italia. Il Direttore Generale di ACN (Agenzia per la Cybersicurezza Nazionale), il Prefetto Bruno Frattasi ha dichiarato: “L’Intelligenza Artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa. È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”.
Le linee guida, promosse dal National Cyber Security Centre del Regno Unito, si dividono in quattro macro-categorie: progettazione, sviluppo, impiego, mantenimento. In linea generale, emerge il forte senso di responsabilità che è necessario avere in ciascuna di queste fasi, per garantire uno sviluppo sicuro delle tecnologie AI. In secondo luogo, si raccomanda di creare sistemi più trasparenti possibili, così da facilitare la comprensione degli utenti. I sistemi devono essere anche equi e non discriminatori, e, in ultimo, devono essere costantemente protetti da tentativi di hacking o manipolazione.
SF