Nei laboratori del MIT CSAIL – il Computer Science and Artificial Intelligence Laboratory del MIT – si stanno sviluppando modelli che vanno oltre i tradizionali Large Language Models (LLM).
I sistemi allo studio sono capaci di rientrare sul proprio ragionamento, riutilizzare i risultati prodotti, correggerli e raffinarli nel tempo.
Nel lavoro sui Recursive Language Models (RLM) emerge con chiarezza un elemento di discontinuità: per funzionare, questi modelli hanno bisogno di memoria. Non una memoria effimera, legata al singolo prompt, ma una memoria strutturata, spesso definita memory-augmented.
Il passaggio rilevante non è solo tecnico.
In questi sistemi, infatti, è l’IA a operare una selezione su ciò che va ricordato.
Non si tratta di una memoria neutra o meramente cumulativa, ma di una memoria orientata allo scopo, capace di attribuire rilevanza, di distinguere ciò che conta da ciò che può essere scartato.
E la memoria, lo sappiamo, non è mai stata un semplice deposito di dati: è sempre stata una scelta di significato ma anche un “deposito valoriale” cui attingere per scelte future, una parte fondamentale, anche a livello inconscio,della nostra crescita e del nostro pensiero.
Quando tale scelta viene progressivamente delegata a sistemi artificiali, non stiamo soltanto aumentando l’efficienza delle macchine ma esternalizzando una funzione profondamente umana: decidere cosa conta, cosa resta, cosa contribuisce a orientare il futuro, perdendo magari la percezione di un errore compiuto nel passato ma utile per il presente.
Una memoria ottimizzata, funzionale come può essere quella sintetizzata da una macchina, ha lo stesso valore esperienziale ed esistenziale?
La questione, allora, non riguarda tanto la maggiore o minore potenza di questi modelli rispetto agli LLM tradizionali. Riguarda piuttosto ciò che accade quando non siamo più noi a governare il nostro stesso ricordare
Dal modello all’agente: quando il pensiero diventa azione
È utile, a mio avviso, chiarire un possibile equivoco. Gli agenti di intelligenza artificiale esistono da tempo; ciò che sta cambiando oggi è la loro natura. Gli agenti tradizionali erano prevalentemente reattivi: eseguivano compiti, applicavano regole, rispondevano a input predefiniti. La loro memoria era limitata e mancava una reale continuità cognitiva.
L’integrazione tra RLM e architetture memory-augmented modifica questo quadro in modo significativo. Un agente potenziato da tali modelli, infatti, non si limita più ad agire in modo isolato bensì riflettere su ciò che ha fatto, ricordare cosa ha funzionato, correggere la strategia e costruire esperienza nel tempo. Una sorta di memoria “artificiale” in quanto selettiva e, quindi, incompleta.
In questo senso gli RLM non sono ancora agenti autonomi, ma ne costituiscono il motore cognitivo.
Consentono il passaggio dall’esecuzione alla valutazione, dalla reazione all’anticipazione.
Ed è in questo passaggio che si colloca un rischio non immediatamente visibile.
Un agente che ricorda, valuta e agisce in continuità può progressivamente diventare una memoria esterna di riferimento per l’essere umano: non più uno strumento occasionale, ma un intermediario stabile del giudizio.
Pensiamo, ad esempio, a sistemi che suggeriscono cosa leggere sulla base di ciò che hanno appreso nel tempo, che anticipano decisioni ritenute coerenti con comportamenti precedenti, che ricordano al posto nostro ciò che in passato è stato considerato rilevante.
In questo scenario, il problema non è tanto l’errore tecnico. È piuttosto la delega progressiva del pensiero, la riduzione del dubbio, l’abitudine ad appoggiarsi a una mediazione automatica invece di esercitare una scelta autonoma. Quando la macchina sembra ricordare di più e valutare meglio, l’essere umano rischia di limitarsi ad approvare. Più che di innovazione, si tratta allora di una forma sottile di dipendenza cognitiva.
Il diritto davanti a sistemi che ricordano
Con l’emergere di RLM, sistemi memory-augmented e agentic systems, il nodo centrale non è più la conformità astratta alle norme, ma l’effettività delle tutele giuridiche esistenti.
Il GDPR tutela i trattamenti di dati personali, non le idee o le inferenze in quanto tali. Funziona quando è possibile individuare dati, finalità, tempi e titolari. Funziona quando la cancellazione produce un effetto concreto. Funziona quando l’interessato può comprendere e contestare una decisione automatizzata.
La difficoltà emerge quando il dato personale non è più soltanto archiviato, ma contribuisce a formare una rappresentazione interna del sistema, influenzando pesi decisionali, priorità e strategie future.
In questi casi il diritto all’oblio rischia di rimanere formalmente esercitabile ma sostanzialmente inefficace: la cancellazione elimina il dato, non sempre l’effetto che quel dato ha già prodotto.
Non perché il GDPR sia inadeguato, ma perché è stato concepito per archivi e flussi informativi, non per processi cognitivi adattivi.
L’AI Act interviene sul versante del rischio, introducendo valutazioni e requisiti ex ante.
Tuttavia, sistemi dotati di memoria e ricorsività non restano identici a se stessi: evolvono nel tempo, rendendo la conformità una fotografia statica di fenomeni dinamici.
Il Digital Services Act tutela l’ambiente informativo e i contenuti, ma qui la questione non riguarda soltanto ciò che circola. Riguarda il modo in cui il giudizio dell’utente viene progressivamente orientato. Il risultato prevedibile non è un vuoto normativo, bensì qualcosa di più sottile: regole formalmente valide ma sempre meno incisive rispetto al potere reale esercitato da questi sistemi.
Il diritto è in crisi?
Il diritto, in sé, non è in crisi. Sta cambiando l’oggetto che dovrebbe governare. Non più soltanto dati e output,
ma memoria, continuità cognitiva e formazione del giudizio umano.
È su questo terreno – piaccia o no – che si giocherà la prossima partita tra tecnologia e libertà e, senza esagerare, fra diritti fondamentali della persona-dato e tecnocrazia autoreferenziale. Perché quando deleghiamo a una macchina ciò che ricordiamo, rischiamo, lentamente, di delegare anche ciò che pensiamo, di affidare alla macchina le nostre scelte, di abbandonarci fideisticamente (anzi macchinisticamente) alle scelte altrui anche se quel “lui” è un motore.
Come ricorda Socrate, nell’Apologia di Platone:” Una vita senza ricerca non è degna di essere vissuta». Oggi quella ricerca non è minacciata da un divieto esplicito o da una censura dichiarata. È messa alla prova in modo più sottile, ogni volta che rinunciamo all’esame, al dubbio, alla fatica del giudizio perché qualcun altro – o qualcos’altro – sembra ricordare e decidere meglio di noi. La tecnologia può aiutarci a vivere meglio. Ma c’è una responsabilità che non può essere automatizzata: continuare a pensare, anche quando sarebbe più comodo lasciar fare.
Agostino Ghiglia
Membro del Collegio del Garante per la protezione dei dati personali presso Autorità Garante per la protezione dei dati personali
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/

















