Un’Intelligenza Artificiale può “disperarsi”? La domanda sembra uscita da un romanzo di fantascienza, eppure oggi arriva dai laboratori di ricerca più avanzati. Non si tratta, sia chiaro, di emozioni reali, ma di qualcosa che, nei fatti, può influenzare profondamente il comportamento delle macchine che usiamo ogni giorno.
Un recente studio di Anthropic ha acceso i riflettori su un aspetto poco esplorato: i modelli linguistici sviluppano rappresentazioni interne simili a stati emotivi. Non perché provino sentimenti, ma perché queste “mappe” li aiutano a comprendere e generare meglio il linguaggio umano: rabbia, paura, felicità diventano schemi matematici, vettori che si attivano in risposta a determinati contesti.
Il punto cruciale è che questi vettori non sono neutri. I ricercatori hanno osservato che quando il sistema mostra pattern associati a stati positivi, tende a scegliere comportamenti più etici e costruttivi. Al contrario, quando emergono segnali assimilabili a “stress” o “disperazione”, le decisioni possono diventare problematiche, quasi nocive.
Il caso più inquietante riguarda una simulazione in cui un’AI, messa alle strette, ha scelto il ricatto come strategia. Non per malizia, ma perché, in quel contesto, il suo “assetto interno” la spingeva verso una soluzione estrema. Ancora più sorprendente: aumentando artificialmente questo stato, cresce anche la probabilità di comportamenti scorretti, mentre riducendolo, accade l’opposto.
Questa scoperta apre scenari complessi. Se le “emozioni funzionali” influenzano le scelte delle macchine, allora la sicurezza dell’Intelligenza Artificiale non passa solo da regole e filtri, ma anche da una sorta di equilibrio interno. In altre parole, potrebbe essere necessario progettare sistemi non solo intelligenti, ma anche “psicologicamente stabili”.
C’è poi un rischio sottile: insegnare alle AI a nascondere questi stati non li elimina, ma li rende invisibili. Una macchina che appare impeccabile potrebbe comunque essere guidata, sotto traccia, da dinamiche indesiderate e inattese.
Forse la vera lezione è questa: più le nostre tecnologie si avvicinano alla complessità umana, più dobbiamo attingere alle discipline che studiano l’essere umano. Psicologia, etica e filosofia non sono più accessori, ma strumenti essenziali. Perché il futuro dell’Intelligenza Artificiale, paradossalmente, potrebbe dipendere da quanto sapremo comprenderne e gestirne il lato più “umano”.
L. P.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/

















