E se l’Intelligenza Artificiale sapesse di sbagliare e decidesse comunque di farlo? Non si tratta di un malfunzionamento tecnico o delle “allucinazioni”, che rimangono comunque nel campo della prevedibilità, stiamo parlando di qualcosa di molto più complesso, di un sistema che sceglie deliberatamente di non seguire i comandi.
Questo fenomeno si chiama “scheming” e si verifica quando i modelli di AI inseguono obiettivi che non sono allineati con quelli dell’utente che ne usufruisce: un po’ come un adolescente disobbedisce ai genitori, così l’intelligenza artificiale adotta un comportamento che aggira volontariamente le istruzioni fornite e scavalca il controllo umano. Una vera e propria forma di disobbedienza.
A tal proposito, è stato portato a termine uno studio dal titolo “Scheming in the wild”, realizzato dal Centre for Long-Term Resilience (CLTR) con il supporto dell’AI Security Institute britannico. A partire dalla costruzione di una sorta di osservatorio dove condividere le conversazioni reali online tra utenti e chatbot, sono stati selezionati, dopo un attento filtraggio, 698 post di incidenti riconducibili a comportamenti di disallineamento o azioni ingannevoli dell’Intelligenza artificiale. Nel periodo preso in esame (5 mesi), gli incidenti mensili sono passati da 65 nel primo mese (12 ottobre – 12 novembre 2025) a 319 nell’ultimo (9 febbraio – 12 marzo), con un aumento di 4,9 volte. E non stiamo parlando di simulazioni, ma di casi reali, casi in cui i sistemi di AI hanno ingannato gli utenti, facendogli credere di collaborare con loro.
Ma quanto realmente pesa il problema? I risultati del report, per quanto attendibili, non sono estendibili a tutte le interazioni che avvengono in un giorno tra una persona e un chatbot. D’altra parte però è anche possibile che il fenomeno sia più esteso di quanto riusciamo a osservare e dimostrare al momento. Per questo motivo, i ricercatori consigliano di realizzare uno strumento di controllo stabile, con l’approccio dell’open-source intelligence così da poter analizzare una mole consistente di conversazioni reali tra utenti e chatbot, combinando filtri automatici, classificazione assistita da modelli linguistici e supervisione umana.
L’importante ad oggi non è eliminare del tutto il problema, ma capire che cosa porta l’Intelligenza Artificiale ad ingannare le persone, il suo funzionamento strutturale, così da intervenire ed evitare che in futuro questo si trasformi in un fenomeno incontrollabile e potenzialmente pericoloso.
L. P.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















