Sempre più persone affidano all’AI le proprie mansioni pratiche da svolgere, come scrivere o leggere testi complessi, così facendo però perdono gradualmente la loro capacità di elaborazione mentale e pensiero critico.
L’aspetto più critico della sempre più crescente dipendenza da ChatGPT riguarda l’affidarsi all’AI per ottenere supporto psicologico: ChatGPT si concentra soltanto sull’incrocio dei dati clinici non fornendo risposte specifiche per una determinata situazione. Inoltre, un servizio di AI non potrà dare calore e supporto come lo darebbe un aiuto umano.
L’aumentare della gravità di questa forma di dipendenza ha suscitato reazioni da parte di molte importanti istituzioni in giro per il mondo: la Cyberspace Administration of China ha recentemente stabilito che non sarà più possibile fare divulgazione sui loro social a proposito di argomenti come quelli relativi alla salute, al diritto, alla pedagogia e alla finanza per persone prive di titoli di studio affini agli argomenti. Chi diffonde notizie su questi argomenti che toccano la vita intima delle persone dovrà dimostrare di possedere una laurea o credenziali riconosciute in quel settore e dovrà riferire di aver generato del materiale attraverso reti di AI. L’obiettivo è quello di sgombrare il campo da informazioni ingannevoli soprattutto in ambiti delicati come quello della salute personale.
Una normativa simile l’ha adottata il Governatore dell’Illinois Jay Robert Pritzker, che ha deciso ad agosto 2025 di limitare il ricorso ai dispositivi di Intelligenza Artificiale a scopi psicoterapeutici.
L’intenzione è quella di proteggere i pazienti, soprattutto quelli in età evolutiva, da informazioni non qualificate e fuorvianti. Un altro obiettivo è quello di salvaguardare la professionalità qualificata degli operatori della salute mentale.
La stessa Unione Europea, con il Digital Services Act, si orienta verso la trasparenza: le piattaforme dovrebbero segnalare pubblicità, verificare la provenienza dei contenuti e rimuovere fake news dannose.
I dispositivi di AI non sono dunque nocivi in quanto tali. Si tratta però di strumenti scivolosi, sdrucciolevoli che possono far prendere una deriva verso la dipendenza. Risulta fondamentale conservare un’autonomia intellettuale mettendo in dubbio con sano spirito critico le affermazioni dei dispositivi di AI.
V.L.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















