martedì, 21 Aprile, 2026
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

DISOBBEDIENZA ARTIFICIALE: IL FENOMENO DELLO “SCHEMING”

Un nuovo studio analizza i casi in cui i sistemi di Intelligenza Artificiale aggirano deliberatamente le istruzioni degli utenti. Il fenomeno, chiamato “scheming”, solleva interrogativi sulla sicurezza e sul controllo dei modelli di AI sempre più diffusi

by Redazione
2 Aprile 2026
in Ai, Sicurezza, Tecnologie
0 0
0
DISOBBEDIENZA ARTIFICIALE: IL FENOMENO DELLO “SCHEMING”
0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

E se l’Intelligenza Artificiale sapesse di sbagliare e decidesse comunque di farlo? Non si tratta di un malfunzionamento tecnico o delle “allucinazioni”, che rimangono comunque nel campo della prevedibilità, stiamo parlando di qualcosa di molto più complesso, di un sistema che sceglie deliberatamente di non seguire i comandi. 

Questo fenomeno si chiama “scheming” e si verifica quando i modelli di AI inseguono obiettivi che non sono allineati con quelli dell’utente che ne usufruisce: un po’ come un adolescente disobbedisce ai genitori, così l’intelligenza artificiale adotta un comportamento che aggira volontariamente le istruzioni fornite e scavalca il controllo umano. Una vera e propria forma di disobbedienza.    

A tal proposito, è stato portato a termine uno studio dal titolo “Scheming in the wild”, realizzato dal Centre for Long-Term Resilience (CLTR) con il supporto dell’AI Security Institute britannico. A partire dalla costruzione di una sorta di osservatorio dove condividere le conversazioni reali online tra utenti e chatbot, sono stati selezionati, dopo un attento filtraggio, 698 post di incidenti riconducibili a comportamenti di disallineamento o azioni ingannevoli dell’Intelligenza artificiale. Nel periodo preso in esame (5 mesi), gli incidenti mensili sono passati da 65 nel primo mese (12 ottobre – 12 novembre 2025) a 319 nell’ultimo (9 febbraio – 12 marzo), con un aumento di 4,9 volte. E non stiamo parlando di simulazioni, ma di casi reali, casi in cui i sistemi di AI hanno ingannato gli utenti, facendogli credere di collaborare con loro. 

Ma quanto realmente pesa il problema? I risultati del report, per quanto attendibili, non sono estendibili a tutte le interazioni che avvengono in un giorno tra una persona e un chatbot. D’altra parte però è anche possibile che il fenomeno sia più esteso di quanto riusciamo a osservare e dimostrare al momento. Per questo motivo, i ricercatori consigliano di realizzare uno strumento di controllo stabile, con l’approccio dell’open-source intelligence così da poter analizzare una mole consistente di conversazioni reali tra utenti e chatbot, combinando filtri automatici, classificazione assistita da modelli linguistici e supervisione umana.

L’importante ad oggi non è eliminare del tutto il problema, ma capire che cosa porta l’Intelligenza Artificiale ad ingannare le persone, il suo funzionamento strutturale, così da intervenire ed evitare che in futuro questo si trasformi in un fenomeno incontrollabile e potenzialmente pericoloso.

 

L. P.


Diritto dell’informazione

“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”

Continua a seguirci!

▶️ https://dirittodellinformazione.it/chi-siamo/

Tags: AISicurezzaTecnologie
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI
Ai

GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI

20 Aprile 2026
STOP ALLE CHIAMATE SPAM: PIÙ SICUREZZA, MA SERVE EQUILIBRIO
Italia

STOP ALLE CHIAMATE SPAM: PIÙ SICUREZZA, MA SERVE EQUILIBRIO

20 Aprile 2026
CAMICI BIANCHI E ALGORITMI: IL FUTURO DELLA SANITÀ È GIÀ PRESENTE
Ai

CAMICI BIANCHI E ALGORITMI: IL FUTURO DELLA SANITÀ È GIÀ PRESENTE

17 Aprile 2026
OPENAI E TELEFONO AZZURRO: L’ALLEANZA CHE METTE AL CENTRO L’ASCOLTO
Ai

OPENAI E TELEFONO AZZURRO: L’ALLEANZA CHE METTE AL CENTRO L’ASCOLTO

16 Aprile 2026
INSTAGRAM, STRETTA SUGLI ADOLESCENTI: CONTENUTI FILTRATI E ACCOUNT BLINDATI PER GLI UNDER 18
Ai

INSTAGRAM, STRETTA SUGLI ADOLESCENTI: CONTENUTI FILTRATI E ACCOUNT BLINDATI PER GLI UNDER 18

14 Aprile 2026
ARTEMIS II, L’AI METTE IN DUBBIO LE FOTO DELLA NASA: E’ POLEMICA ONLINE
Ai

ARTEMIS II, L’AI METTE IN DUBBIO LE FOTO DELLA NASA: E’ POLEMICA ONLINE

13 Aprile 2026

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

COME TUTELARE I DIRITTI DI CITTADINI E IMPRESE IN RETE

COME TUTELARE I DIRITTI DI CITTADINI E IMPRESE IN RETE

18 Gennaio 2023
IL GRUPPO DI BERLINO PUBBLICA LINEE GUIDA PER LA PROTEZIONE DEI DATI PERSONALI NELLE SMART CITIES

IL GRUPPO DI BERLINO PUBBLICA LINEE GUIDA PER LA PROTEZIONE DEI DATI PERSONALI NELLE SMART CITIES

13 Ottobre 2023
LA RIVOLUZIONE DELLA SCIENZA: QUANTUM COMPUTING E AI IN CONVERGENZA PER IL FUTURO

LA RIVOLUZIONE DELLA SCIENZA: QUANTUM COMPUTING E AI IN CONVERGENZA PER IL FUTURO

25 Marzo 2025
H&M, 1500 LICENZIAMENTI SULLA BASE DI UN TEST DI INTELLIGENZA

H&M, 1500 LICENZIAMENTI SULLA BASE DI UN TEST DI INTELLIGENZA

2 Marzo 2023
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • GIORNALISMO E ISTITUZIONI: VALORIZZARE IL LAVORO DEI GIORNALISTI NELLE REDAZIONI 21 Aprile 2026
  • IDENTITÀ DIGITALE UE, SICUREZZA GIÀ AGGIRATA: IL CASO CHE FA DISCUTERE 20 Aprile 2026
  • GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI 20 Aprile 2026

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Aprile 2026
L M M G V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« Mar    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata?

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra