È online il primo Rapporto internazionale sulla sicurezza dell’Intelligenza Artificiale (AI), sostenuto da 30 Paesi, dall’ Organizzazione per la cooperazione e lo sviluppo economico (OCSE), dalle Nazioni Unite e dall’Unione Europea. Il documento, realizzato da 100 esperti indipendenti, tra cui premi Nobel e vincitori del Turing Award, fornisce un’analisi approfondita sui rischi legati all’AI e sulle strategie di mitigazione.
Il rapporto evidenzia l’accelerazione dello sviluppo dell’AI e i rischi associati. Tra questi, la crescente potenza di calcolo impiegata per l’addestramento dei modelli e l’avanzamento degli agenti autonomi, che pongono pericoli legati a manipolazione dell’opinione pubblica, attacchi informatici e violazioni della privacy.
Viene inoltre affrontato il divario globale nella ricerca sull’AI, con i Paesi a basso reddito in difficoltà nel competere con le nazioni più avanzate. Il documento sottolinea anche la concentrazione del mercato nelle mani di poche aziende, il che aumenta i rischi sistemici, e l’impatto ambientale derivante dall’enorme consumo energetico.
Altri aspetti critici sono i rischi per il mercato del lavoro, con la possibilità di perdita di impieghi a causa dell’automazione, e le preoccupazioni su privacy e copyright, dovute alla gestione massiva dei dati e all’uso di materiale protetto per l’addestramento dei modelli.
Il report propone un approccio olistico alla gestione dei rischi, articolato in identificazione, valutazione, mitigazione e monitoraggio. Sottolinea l’importanza di modelli più sicuri, attraverso tecniche come l’apprendimento per rinforzo dal feedback umano (RLHF). È essenziale migliorare i test per individuare tempestivamente i potenziali pericoli.
La formazione di modelli più affidabili mira a ridurre i comportamenti rischiosi dell’AI. Sebbene tecniche come RLHF aiutino ad allineare i modelli ai valori umani, esse non garantiscono una sicurezza totale. La ricerca esplora approcci “safe-by-design” per offrire garanzie quantitative, evidenziando anche la necessità di una supervisione umana di qualità per prevenire abusi.
Il monitoraggio e l’intervento, combinando strumenti tecnici e supervisione umana, sono fondamentali per rilevare anomalie e garantire un uso sicuro dell’AI.
L’obiettivo finale è sviluppare un’intelligenza artificiale affidabile e sostenibile, capace di massimizzare i benefici riducendo i rischi per la società.
F.C.
Diritto dell’Informazione
“Diritto dell’Informazione: la bussola per orientarsi tra notizie e giurisprudenza”
Continua a seguirci!