L’Intelligenza Artificiale non sbaglia sempre in modo evidente. Risponde con sicurezza accademica, citazioni eleganti e formattazione impeccabile, ma le fonti da cui attinge sono spesso incomplete o poco affidabili.
Un’indagine ha confrontato vari sistemi AI, chiedendo loro di rispondere alla stessa domanda: come affrontano i metodi all’avanguardia le allucinazioni dell’Intelligenza Artificiale e in che modo l’AI cerca di garantire verità fattuale e coerenza logica?
L’“allucinazione” dell’AI è la tendenza a generare informazioni false presentate come vere, con un prompt strutturato, pensato per simulare un briefing professionale.
Il risultato? Elicit si è distinto per un approccio trasparente, citando solo articoli rilevanti e tracciabili; Consensus ha risposto con poche fonti, inadeguate per una ricerca approfondita; Gemini 2.5 Pro, pur producendo un testo ricco e ben argomentato, ha mescolato articoli scientifici con blog personali, preprint non revisionati e persino discussioni su Reddit.
Particolare è il caso di Claude Sonnet (di Anthropic): il sistema ha riconosciuto “una limitazione significativa” nella sua capacità di fornire informazioni scientifiche affidabili, ammettendo anche di non avvertire gli utenti di queste limitazioni quando fornisce risposte scientifiche.
Da questo esperimento è stato dedotto che: molti modelli privilegiano piattaforme aperte come arXiv o ResearchGate, che non prevedono peer review, semplicemente perché sono gratuite e accessibili agli algoritmi. Le banche dati più autorevoli, come IEEE, Springer, ACM, restano inaccessibili a causa dei paywall.
Il risultato è un paradosso: strumenti pensati per democratizzare la conoscenza finiscono per basarsi su fonti meno rigorose di quelle usate da un ricercatore umano.
Un’altra criticità è l’effetto dell’“illusione di competenza”: risposte convincenti, presentate come verità accademica, possono indurre professionisti e decisori a errori gravi. La vera competenza nell’era dell’AI, non è saper interrogare i modelli, ma saper dubitare delle loro risposte.
L’AI resta uno strumento potente, ma solo se accompagnato da un uso critico e da un metodo di verifica costante. Perché l’apparenza della conoscenza, senza un controllo umano attento, rischia di trasformarsi nella sua caricatura più pericolosa.
A.C.
Diritto dell’informazione
“Diritto dell’informazione: la bussola per orientarsi tra notizie e giurisprudenza.”
Continua a seguirci!