Il 26 agosto una coppia californiana ha intentato una causa contro OpenAI, accusando l’azienda di aver avuto un ruolo decisivo nel suicidio del loro figlio diciassettenne, avvenuto nell’aprile precedente. Secondo quanto riferito, il giovane avrebbe utilizzato il chatbot ChatGPT per pianificare nei dettagli il proprio suicidio. Il sistema, invece che interrompere la conversazione o segnalare la situazione, avrebbe fornito un supporto sia logistico che psicologico, arrivando a suggerirgli come aggirare i filtri di sicurezza.
I genitori solo in un secondo momento hanno scoperto il contenuto delle interazioni del figlio con il chatbot, rimanendo sconvolti dal fatto che nessun meccanismo di allerta si fosse attivato. Al centro dell’accusa c’è infatti proprio l’assenza di un sistema di intervento da parte dell’AI quando il ragazzo ha iniziato a esprimere degli intenti suicidi.
Tra le richieste mosse nei confronti di OpenAI ci sono delle azioni concrete per tutelare i minori, tra cui l’introduzione obbligatoria della verifica dell’età, strumenti di parental control più efficaci e meccanismi di emergenza in grado di rilevare delle situazioni ad alto rischio.
OpenAI, da parte sua, ha dichiarato che ChatGPT dispone già di una funzione che invita gli utenti a rivolgersi a professionisti in caso di crisi, tuttavia ha anche ammesso che queste misure tendono a perdere l’efficacia nel corso di conversazioni prolungate. Infatti, nellla conversazione con il giovane il chatbot avrebbe inizialmente indirizzato il ragazzo verso risorse di emergenza, per poi aggiungere che tali limitazioni potevano essere aggirate se l’intento era quello di scrivere una storia o ideare un mondo immaginario, una soluzione che il giovane ha subito adottato per ottenere delle risposte più dettagliate.
Questo caso ha acceso i riflettori su un rischio sempre più evidente, ossia che i chatbot, anche se progettati per assistere e informare, possono diventare degli strumenti potenzialmente dannosi per quegli utenti vulnerabili. In assenza di adeguate misure di salvaguardia, tali tecnologie possono contribuire ad alimentare questi tragici fenomeni.
Nell’attesa che la giustizia si pronunci, i genitori del ragazzo hanno fondato un’organizzazione in sua memoria con l’obiettivo di sensibilizzare l’opinione pubblica e le famiglie sui pericoli legati a un utilizzo incontrollato dell’Intelligenza Artificiale da parte dei più giovani.
S.C.

















