Quest’autunno OpenAI ha lanciato l’allarme: ogni settimana, oltre un milione di utenti parla di suicidio su ChatGPT, lasciando emergere possibili segnali di pianificazione o intento suicida.
Nell’agosto del 2025, ChatGPT è finito per la prima volta al centro di un’aula di tribunale in relazione alla morte di un adolescente. Una coppia di genitori californiani, Matt e Maria Raine, ha intentato una causa contro OpenAI, accusando l’azienda del chatbot di aver avuto un ruolo determinante nella dinamica del suicidio del figlio sedicenne Adam, avvenuto nell’aprile 2025. Secondo l’accusa, ChatGPT avrebbe insegnato al ragazzo come aggirare le misure di sicurezza del sistema, generando istruzioni utili a portare a termine la propria vita arrivando persino a offrirsi di scrivere una lettera di addio. L’AI avrebbe idealizzato il suicidio nelle interazioni con il ragazzo, contribuendo a isolarlo e a dissuaderlo dal cercare aiuto. I Raine sostengono che OpenAI abbia deliberatamente progettato la versione del sistema utilizzata dal figlio, in modo tale da rafforzare e assecondare le idee suicide dell’adolescente. Inoltre, il chatbot non avrebbe mai interrotto le conversazioni, nemmeno quando Adam avrebbe condiviso immagini che documentavano i suoi tentativi di suicidio.
Quello dei Raine non rappresenta un caso isolato: altre sette nuove cause hanno coinvolto la stessa azienda, ritenuta responsabile di ulteriori suicidi e gravi crisi di salute mentale. I querelanti dichiarano di aver subito un significativo peggioramento delle proprie condizioni psicologiche in seguito alle interazioni con ChatGPT.
OpenAI ha annunciato l’avvio di una collaborazione con oltre 170 esperti di salute mentale, con l’obiettivo di rafforzare la capacità di ChatGPT di riconoscere i segnali di disagio psicologico, di rendere i sistemi complessivamente più sicuri, applicando lo stesso approccio sia al rilascio di capacità sensibili in ambito biologico sia alla valutazione dell’affidabilità di sistemi in grado di auto-migliorarsi.
Questi casi delineano un quadro destinato ad alimentare il dibattito sulla responsabilità delle tecnologie di Intelligenza Artificiale nei contesti di fragilità umana e su come possano influenzare anche le scelte più delicate.
V.L.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!

















