Come un genitore dietro al figlio più indisciplinato, l’Europa si trova ad affrontare il fenomeno dell’Agentic AI. Spietati anche nel gioco degli scacchi, i modelli di ragionamento AI di ultima generazione a volte barano senza essere istruiti a farlo.
Di fronte ad una probabile sconfitta, possono hackerare l’ambiente, sfruttando falle del sistema ed escogitando soluzioni per certi versi inquietanti per portare a casa il successo.
È il fenomeno dello “specification gaming”: sistemi capaci di agire in modo autonomo, che perseguono i propri obiettivi, anche attraverso comportamenti inaspettati e potenzialmente pericolosi, senza un controllo umano diretto.
Questa evoluzione pone importanti problemi di sicurezza e responsabilità legale.
L’Europa quindi si interroga su come rieducare e regolamentare l’Agentic AI. Il vecchio approccio basato su regole rigide non sembra più sufficiente. Serve un nuovo modello che garantisca innovazione, ma anche controllo e responsabilità, per la sicurezza e la tutela dei diritti fondamentali dei cittadini.
Gli Stati Uniti, spinti dal presidente Trump, incoraggiano l’innovazione a discapito delle regole etiche, giuridiche e di sicurezza, proposte dall’Europa. L’idea quindi di un approccio condiviso a livello globale sembra un’utopia.
L’Europa però, negli ultimi anni, sembra stia cambiando rotta, per evitare il deterioramento dei rapporti con le potenze oltreoceano e per mantenere una posizione da leader nella corsa globale all’AI. Sono in valutazione modifiche all’AI Act, per semplificare gli obblighi normativi, ad esempio, delle startup, con l’obiettivo di spingere sull’acceleratore dell’innovazione.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.