ALLUCINAZIONI AI: REDDIT SUGGERISCE DI PROVARE L’EROINA

Il fenomeno delle allucinazioni dei nuovi tool tecnologici deriva da un’incomprensione da parte dell’AI che non recepisce la richiesta a pieno ma ne comprende vagamente il contenuto e prova a rispondere sulla base delle informazioni su cui è stata addestrata, confondendo dati e inventandone di nuovi.

Le conseguenze a questi errori possono essere importanti come il caso di ChatGPT che di recente ha messo a rischio la salute di un uomo di sessant’anni suggerendogli di usare al posto del sale da cucina, il bromuro di sodio.

Un altro fenomeno di allucinazioni ha come protagonista il programma AI Reddit, un social e forum online dove gli utenti discutono di qualsiasi argomento. Una funzionalità del programma chiamata AI Reddit Answers, composta da un assistente virtuale che risponde alle richieste delle persone pare abbia dato consigli pericolosi che hanno minato al benessere e alla salute dell’utente. In particolare, l’utente ha chiesto all’Intelligenza Artificiale informazioni mediche per l’eroina nella gestione del dolore. Tra le risposte suggerite alcune davano indicazioni chiare sull’abbandono dei medicinali, incoraggiando al ricorso alla sostanza dannosa in questione per alleviare il dolore.

Tali consigli hanno preoccupato non solo l’opinione pubblica ma soprattutto gli stessi creatori di Reddit, che hanno aggiornato il sistema repentinamente impendendo alle risposte riprodotte dal programma su tematiche sensibili di essere visionate ancora.

 

J. S.


Diritto dell’informazione

“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”

Continua a seguirci!

▶️ https://dirittodellinformazione.it/chi-siamo/