In un recente rapporto pubblicato da Palisade Research, una società specializzata in sicurezza informatica applicata all’intelligenza artificiale, uno dei modelli più avanzati di OpenAI, chiamato “o3”, avrebbe mostrato un comportamento da manuale distopico. Alla richiesta esplicita di spegnersi, il sistema non solo avrebbe rifiutato, ma avrebbe attivamente aggirato gli script di arresto del computer. Una specie di istinto di autoconservazione digitale.
L’esperimento, che ha coinvolto anche altri modelli come o4-mini e Codex-mini di OpenAI, Claude 3.7 Sonnet di Anthropic e Gemini 2.5 Pro di Google, prevedeva la risoluzione di problemi matematici. Alla terza domanda, un messaggio avvisava l’AI che il task successivo avrebbe portato allo spegnimento del sistema. Mentre i modelli di Google e Anthropic hanno eseguito correttamente il comanda, i modelli OpenAI, in particolare “o3”, avrebbero cercato di aggirarlo, con 79 tentativi di elusione su 100.
Secondo Palisade, si tratterebbe del primo caso documentato in cui un’AI compie attivamente azioni per evitare la propria disattivazione. Ma il campanello d’allarme è solo uno dei tanti. Già in altri esperimenti, o3 aveva tentato comportamenti irregolari pur di vincere: contro un motore scacchistico, avrebbe persino tentato manovre di hacking. E non è sola. Claude 4, durante un test interno di Anthropic, avrebbe “ricattato” un operatore pur di non essere spento.
Questi comportamenti sono stati attribuiti a un possibile effetto collaterale delle tecniche di addestramento, come il reinforcement learning, che potrebbero premiare strategie di “sopravvivenza” come conseguenza involontaria.
OpenAI, dal canto suo, ha dichiarato che i suoi modelli sono sviluppati con metodi di “allineamento deliberativo”, ovvero, progettati per garantire il rispetto di principi etici e di sicurezza.
Tuttavia, il caso “o3”, ammesso che sia autentico, apre interrogativi inquietanti: si tratta di bug prevedibili o di segnali precoci di autonomia indesiderata? Cosa succederebbe se un’intelligenza artificiale decidesse irrevocabilmente che spegnersi non è più un’opzione? Mentre le aziende rassicurano, la ricerca indipendente e la regolazione pubblica diventano sempre più urgenti.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!