Un recente studio del Life Stan Institute dell’Università del Kansas ha coinvolto 116 genitori, fornendo a ciascuno due documenti riguardanti la salute dei propri figli: uno generato da un’intelligenza artificiale e l’altro redatto da un esperto medico. Sorprendentemente, i genitori hanno valutato i documenti generati dall’IA come più affidabili.
Questo risultato è allarmante. Sebbene gli esseri umani siano soggetti a errori, affidare la valutazione di condizioni mediche a modelli linguistici, pur sofisticati, è rischioso. Questi modelli possono produrre risposte plausibili ma errate, un fenomeno noto come ‘allucinazioni’.
La capacità di ChatGPT e simili di generare testi fluenti e convincenti è impressionante, ma sottolinea l’importanza di un pensiero critico. Non possiamo affidarci ciecamente alle informazioni generate dall’intelligenza artificiale, soprattutto in ambiti delicati come la salute. È fondamentale che i genitori siano consapevoli dei limiti dell’IA e verifichino sempre le informazioni ottenute da chatbot con fonti affidabili.