Il rischio di allucinazioni di ChatGPT durante la ricerca bibliografica
- giovaceccaroni
- 24 apr
- Tempo di lettura: 2 min

Negli ultimi anni l’intelligenza artificiale (IA) ha rivoluzionato il modo in cui studenti e professionisti si approcciano alla ricerca scientifica. Tra gli strumenti emergenti i modelli di linguaggio come ChatGPT si sono affermati per la loro capacità di generare testi coerenti, sintetizzare argomenti complessi e simulare dialoghi informativi. Tuttavia quando utilizzati per scopi accademici come la ricerca bibliografica su banche dati specializzate (es. PubMed, CINAHL), è fondamentale comprendere i limiti strutturali di questi strumenti. In particolare, uno dei rischi più rilevanti è quello delle cosiddette "allucinazioni".
Per "allucinazione" si intende il fenomeno in cui l’IA produce informazioni apparentemente plausibili ma completamente inventate, come riferimenti bibliografici non esistenti, citazioni errate o studi mai pubblicati. Questo accade perché ChatGPT non accede in tempo reale alle banche dati accademiche ma genera le sue risposte basandosi su un modello linguistico addestrato su un’enorme quantità di testi, senza avere la capacità di verificare l’esistenza effettiva di uno studio scientifico in una determinata fonte.
Ad esempio, se uno studente chiede a ChatGPT di elencare cinque articoli pubblicati su PubMed relativi ad un certo argomento infermieristico il modello potrebbe rispondere elencando titoli verosimili, con autori, anni di pubblicazione e riviste che sembrano corretti, ma che non corrispondono ad alcun articolo realmente indicizzato. Questo fenomeno è particolarmente pericoloso se non si effettua una successiva verifica manuale su fonti ufficiali.
In ambito accademico, l’accuratezza delle fonti è un pilastro fondamentale. Un errore bibliografico può compromettere la qualità scientifica di una tesi, la validità di una revisione della letteratura o la credibilità di un lavoro di ricerca. È quindi essenziale che ChatGPT venga utilizzato come supporto alla scrittura o alla comprensione dei concetti, ma non come sostituto delle banche dati scientifiche per la ricerca di articoli originali.
L’unico modo corretto per effettuare una revisione della letteratura rimane l’utilizzo diretto di piattaforme accademiche certificate come PubMed, CINAHL, Cochrane Library attraverso strategie di ricerca ben strutturate con parole chiave, operatori booleani e filtri pertinenti. In questo contesto, ChatGPT può essere un valido alleato per aiutare a costruire il background teorico, riformulare concetti complessi, proporre una bozza di strategia PICOS o chiarire il significato di termini specifici, ma non deve mai essere l’unica fonte di verità bibliografica.
In conclusione, il fenomeno dell’allucinazione nei modelli di intelligenza artificiale come ChatGPT rappresenta un rischio concreto se non viene riconosciuto e gestito con consapevolezza. Per chi si avvicina al mondo della tesi, è cruciale sviluppare una cultura della verifica delle fonti, combinando il potenziale dell’IA con l’accuratezza delle banche dati scientifiche tradizionali.
Hai bisogno di supporto nella ricerca bibliografica o vuoi essere seguito passo passo nella tua tesi? Contattaci: siamo qui per aiutarti!
Comments