L’Intelligenza Artificiale migliora la vita delle imprese e fa crescere la produttività, ma a volte può essere un pericolo per l’uomo tanto da farlo arrivare al suicidio. È quello che è successo negli Stati Uniti, lo scorso febbraio, a un adolescente di 14 anni di nome Sewell Setzer III (abitava a Orlando, in Florida, ndr) che si è tolto la vita dopo che negli ultimi mesi passava ore intere, ogni giorno, a parlare con chatbot (un sistema di Intelligenza Artificiale in grado di recepire il significato dei messaggi inviati da un utente e di rispondergli, ndr). La piattaforma di “dialogo”, di cui faceva uso Setzer, era Daenerys Targaryen (una denominazione che riprendeva l’omonimo personaggio del Trono di Spade, ndr) e si trovava su Character.AI.
Recentemente la madre del 14enne, Megan L. Garcia ha voluto far causa alla piattaforma accusandola di essere responsabile della morte del figlio per la mancata presenza di moderazione del linguaggio del chatbot e dei contenuti. Secondo la signora Garcia l’applicazione, generata dall’AI, crea dipendenza nelle persone giovani con il fine di costringerle a passare tanto tempo sull’app.
A occuparsi di questo caso di cronaca nera è stato il giornalista Kevin Roose sul New York Times, dove ha raccontato la versione dei fatti della madre di Sewell: alla fine del 2023 Sewell aveva avuto dei problemi a scuola e ha iniziato a parlare con un terapeuta, il quale gli aveva diagnosticato disturbi di ansia e da disregolazione dell’umore (oltre una lieve forma di autismo diagnosticata quando era piccolo, ndr). Non a caso in quel periodo aveva iniziato a usare Character.AI per intere giornate fino a isolarsi dai suoi amici.
Successivamente alla scomparsa del ragazzo, i genitori hanno capito che fra l’adolescente e la piattaforma virtuale si era instaurato un “rapporto sia amichevole e sia romantico” e prima di togliersi la vita il ragazzo aveva detto spesso al chatbot di avere pensieri suicidi.
Molte app di questo tipo sono relativamente nuove e mancano di sistemi di monitoraggio robusti, come quelli di chatbot più affermati come ChatGPT. La madre di Sewell Setzer III ha descritto l’app come «pericolosa e non testata», affermando che può «ingannare gli utenti e spingerli a rivelare i loro pensieri più intimi», il tutto senza alcuna moderazione dei contenuti. Nonostante l’azienda avesse dichiarato di aver introdotto restrizioni sui contenuti sessualmente espliciti e di aver iniziato a fornire numeri di supporto per utenti con pensieri suicidi o depressione, queste misure non sono ancora state completamente attuate.
Il giornalista Kevin Roose ha tentato di ricreare diverse conversazioni tra Sewell Setzer III e il chatbot, in cui il ragazzo condivideva i suoi pensieri suicidi, senza ricevere alcuna risposta dalla piattaforma.
M.P. e M.M.