Il coinvolgimento delle tecnologie intelligenti nei casi di suicidio è un dibattito che sta facendo riflettere gli studiosi, gli imprenditori delle Big Tech, il mondo del diritto e i genitori, soprattutto rispetto al loro impatto su target di utenti come bambini e adolescenti. Il problema è stato principalmente sollevato dalle accuse che la madre di Sewell Setzer (un quattordicenne statunitense che ha posto fine alla sua vita incitato dalla chatbot di cui si era “innamorato”) ha rivolto a Character.AI.
Sulla tematica AI-suicidio, OpenAI ha condotto e pubblicato una ricerca evidenziando come lo 0,07% degli utenti attivi su ChatGPT inviano messaggi in cui traspare o viene dichiarato esplicitamente l’intento suicida, sottolineando come molti di essi possano soffrire di problemi di salute mentale come psicosi o manie.
Il Colosso, anche lui accusato di aver incoraggiato il suicidio di un ragazzo con ChatGPT, ha garantito con il nuovo aggiornamento Gpt-5 l’introduzione di misure restrittive, che incrementano la sicurezza degli utenti, ed la facilità di entrare in contatto con figure di assistenza in caso di crisi.
Le ricerche sull’impatto delle nuove Intelligenze Artificiali sui giovani stanno andando avanti e i risultati raccolti non sono del tutto positivi. Queste tecnologie sono un’arma a doppio taglio: da un lato si presentano come strumenti di supporto e di ascolto (anche psicologico), ma dall’altro sostituire figure professionali come psichiatri e psicologi con queste macchine può essere un rischio importante, che può incidere negativamente sulla salute mentale dei ragazzi.
C.Z.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!
▶️ https://dirittodellinformazione.it/chi-siamo/

















