martedì, 21 Aprile, 2026
Diritto Dell'informazione - Portale di Informazione
Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Diritti in Rete
    • Libertà d’informazione
    • Fake news
    • Pluralismo e concorrenza
    • Privacy
    • Diffamazione
    • Copyright
    • Tutela dei minori
  • AI
    • Normativa AI
    • Soluzioni AI
    • Etica AI
  • Pubblico e privato
    • Cittadini
    • Cronaca
    • Imprese
    • Enti pubblici
    • Scuola e università
    • Associazioni e movimenti
    • Authority
    • Ordini professionali
    • Fondazioni
    • Cybersecurity
  • Rubriche
    • L’angolo di Ruben Razzante
    • Tecnologie
    • Libri
  • Innovazione
    • Sostenibilità
    • Blockchain
  • YouTube
  • interviste
  • Ultim’ora
Morning News
Nessun risultato
Vedi tutti i risultati
Home Ai

IL “LATO UMANO” DELL’AI

Le AI sviluppano “vettori emotivi” funzionali che influenzano le loro decisioni, pur senza provare emozioni vere. Quando questi stati interni diventano negativi, possono spingere i modelli verso comportamenti scorretti, rendendo fondamentale controllare il loro equilibrio

by Redazione
9 Aprile 2026
in Ai, Etica AI, Psicologia
0 0
0
IL “LATO UMANO” DELL’AI
0
CONDIVIDI
FacebookShare on TwitterLinkedinWhatsappEmail

Un’Intelligenza Artificiale può “disperarsi”? La domanda sembra uscita da un romanzo di fantascienza, eppure oggi arriva dai laboratori di ricerca più avanzati. Non si tratta, sia chiaro, di emozioni reali, ma di qualcosa che, nei fatti, può influenzare profondamente il comportamento delle macchine che usiamo ogni giorno.

Un recente studio di Anthropic ha acceso i riflettori su un aspetto poco esplorato: i modelli linguistici sviluppano rappresentazioni interne simili a stati emotivi. Non perché provino sentimenti, ma perché queste “mappe” li aiutano a comprendere e generare meglio il linguaggio umano: rabbia, paura, felicità diventano schemi matematici, vettori che si attivano in risposta a determinati contesti.

Il punto cruciale è che questi vettori non sono neutri. I ricercatori hanno osservato che quando il sistema mostra pattern associati a stati positivi, tende a scegliere comportamenti più etici e costruttivi. Al contrario, quando emergono segnali assimilabili a “stress” o “disperazione”, le decisioni possono diventare problematiche, quasi nocive.

Il caso più inquietante riguarda una simulazione in cui un’AI, messa alle strette, ha scelto il ricatto come strategia. Non per malizia, ma perché, in quel contesto, il suo “assetto interno” la spingeva verso una soluzione estrema. Ancora più sorprendente: aumentando artificialmente questo stato, cresce anche la probabilità di comportamenti scorretti, mentre riducendolo, accade l’opposto.

Questa scoperta apre scenari complessi. Se le “emozioni funzionali” influenzano le scelte delle macchine, allora la sicurezza dell’Intelligenza Artificiale non passa solo da regole e filtri, ma anche da una sorta di equilibrio interno. In altre parole, potrebbe essere necessario progettare sistemi non solo intelligenti, ma anche “psicologicamente stabili”.

C’è poi un rischio sottile: insegnare alle AI a nascondere questi stati non li elimina, ma li rende invisibili. Una macchina che appare impeccabile potrebbe comunque essere guidata, sotto traccia, da dinamiche indesiderate e inattese.

Forse la vera lezione è questa: più le nostre tecnologie si avvicinano alla complessità umana, più dobbiamo attingere alle discipline che studiano l’essere umano. Psicologia, etica e filosofia non sono più accessori, ma strumenti essenziali. Perché il futuro dell’Intelligenza Artificiale, paradossalmente, potrebbe dipendere da quanto sapremo comprenderne e gestirne il lato più “umano”.

 

L. P.


Diritto dell’informazione

“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”

Continua a seguirci!

▶️ https://dirittodellinformazione.it/chi-siamo/

 



Tags: AIetica aiPsicologia
Plugin Install : Subscribe Push Notification need OneSignal plugin to be installed.

Articoli Correlati - Articolo

GIORNALISMO E ISTITUZIONI: VALORIZZARE IL LAVORO DEI GIORNALISTI NELLE REDAZIONI
Deontologia dei giornalisti

GIORNALISMO E ISTITUZIONI: VALORIZZARE IL LAVORO DEI GIORNALISTI NELLE REDAZIONI

21 Aprile 2026
GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI
Ai

GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI

20 Aprile 2026
CAMICI BIANCHI E ALGORITMI: IL FUTURO DELLA SANITÀ È GIÀ PRESENTE
Ai

CAMICI BIANCHI E ALGORITMI: IL FUTURO DELLA SANITÀ È GIÀ PRESENTE

17 Aprile 2026
OPENAI E TELEFONO AZZURRO: L’ALLEANZA CHE METTE AL CENTRO L’ASCOLTO
Ai

OPENAI E TELEFONO AZZURRO: L’ALLEANZA CHE METTE AL CENTRO L’ASCOLTO

16 Aprile 2026
INSTAGRAM, STRETTA SUGLI ADOLESCENTI: CONTENUTI FILTRATI E ACCOUNT BLINDATI PER GLI UNDER 18
Ai

INSTAGRAM, STRETTA SUGLI ADOLESCENTI: CONTENUTI FILTRATI E ACCOUNT BLINDATI PER GLI UNDER 18

14 Aprile 2026
ARTEMIS II, L’AI METTE IN DUBBIO LE FOTO DELLA NASA: E’ POLEMICA ONLINE
Ai

ARTEMIS II, L’AI METTE IN DUBBIO LE FOTO DELLA NASA: E’ POLEMICA ONLINE

13 Aprile 2026

PORTALE SVILUPPATO DA

MyWebSolutions Web Agency

Categorie Articoli

News Popolari

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

È REATO PUBBLICARE FOTO DI MINORI SENZA IL CONSENSO DEI GENITORI?

27 Dicembre 2022
CHI SONO E COSA FANNO GLI INFLUENCER

CHI SONO E COSA FANNO GLI INFLUENCER

29 Novembre 2021
WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

WHATSAPP, E-MAIL E SMS HANNO VALORE DI PROVA LEGALE

25 Gennaio 2023
Tutela del diritto d’autore e download di giornali e notizie

Tutela del diritto d’autore e download di giornali e notizie

17 Aprile 2020
DIFFAMAZIONE, INGIURIA E SOCIAL NETWORK

CHAT DI GRUPPO SU WHATSAPP E DIFFAMAZIONE, LA NUOVA SENTENZA DELLA CORTE DI CASSAZIONE

10 Gennaio 2023

In rilievo

VENEZIA, NUOVO PROGETTO PER IL WORK FROM ANYWHERE

VENEZIA, NUOVO PROGETTO PER IL WORK FROM ANYWHERE

15 Marzo 2022
MLOL, IL SITO ITALIANO DELLE BIBLIOTECHE DIGITALI PUBBLICHE

MLOL, IL SITO ITALIANO DELLE BIBLIOTECHE DIGITALI PUBBLICHE

20 Febbraio 2023
MACHINE LEARNING, DEEP LEARNING E RETI NEURALI, NLP (NATURAL LANGUAGE PROCESSING), COMPUTER VISION E RICONOSCIMENTO DELLE IMMAGINI. DI CHE COSA SI TRATTA

MACHINE LEARNING, DEEP LEARNING E RETI NEURALI, NLP (NATURAL LANGUAGE PROCESSING), COMPUTER VISION E RICONOSCIMENTO DELLE IMMAGINI. DI CHE COSA SI TRATTA

15 Dicembre 2021
TELEMARKETING, AL VIA IL CODICE DI CONDOTTA

TELEMARKETING, AL VIA IL CODICE DI CONDOTTA

28 Marzo 2024
ACQUISTA ORAACQUISTA ORAACQUISTA ORA

RR Consulting

E-mail: redazione.dirittodellin
formazione@gmail.com

Condividi sui Social

Ultimi articoli pubblicati

  • GIORNALISMO E ISTITUZIONI: VALORIZZARE IL LAVORO DEI GIORNALISTI NELLE REDAZIONI 21 Aprile 2026
  • IDENTITÀ DIGITALE UE, SICUREZZA GIÀ AGGIRATA: IL CASO CHE FA DISCUTERE 20 Aprile 2026
  • GOOGLE INVESTE IN ITALIA: PARTE “AI WORKS FOR ITALY” PER FORMARE STUDENTI E FUTURI LAVORATORI 20 Aprile 2026

Categorie articoli

Cerca articolo per mese…

Cerca articolo per nome…

Nessun risultato
Vedi tutti i risultati

Calendario Pubblicazioni

Aprile 2026
L M M G V S D
 12345
6789101112
13141516171819
20212223242526
27282930  
« Mar    
  • Privacy policy
  • Cookie Policy

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Nessun risultato
Vedi tutti i risultati
  • Home
  • Chi siamo
  • Dicono di noi
  • Authority
  • Deontologia dei giornalisti
  • Diffamazione
  • Diritto all’oblio
  • Fake news
  • Libertà d’informazione
  • Eventi
  • Tutela dei minori
  • Copyright
  • Privacy
    • Cittadini
    • Imprese

© 2019 Diritto dell'informazione - P.IVA:06530190963 - Created by MyWebSolutions - Web Agency

Area riservata ai relatori - Accedi al tuo account inserendo il tuo nome utente e la tua password...

Password dimenticata?

Fill the forms bellow to register

All fields are required. Entra

Recupera la tua password

Inserisci il tuo nome utente o indirizzo e-mail per reimpostare la password.

Entra