In pochi secondi possiamo interrogare un chatbot, ottenere spiegazioni articolate, risposte ben scritte, apparentemente logiche e convincenti. Eppure, proprio questa facilità rischia di generare una nuova forma di vulnerabilità cognitiva: l’illusione della conoscenza perché mai come oggi abbiamo avuto accesso a così tante informazioni.

Il termine per definire questa situazione è “epistemia”: una condizione in cui si crede di sapere, ma in realtà si possiede solo una rappresentazione superficiale, mediata e non verificata del sapere. Nell’era dei chatbot basati su intelligenza artificiale generativa, l’epistemia non è più un problema individuale, ma un fenomeno sistemico, con implicazioni culturali, educative, professionali e persino democratiche.
Cos’è davvero questa epistemia (e perché non è ignoranza)?
Non coincide con la mancanza di conoscenza. È qualcosa di più sottile e pericoloso: la convinzione di sapere senza avere gli strumenti per verificare, comprendere o contestualizzare ciò che si sa. Fino ad oggi questa epistemia nasceva spesso dall’ eccessiva fiducia nell’autorità, dalla semplificazione dei media, diffusione di slogan al posto di argomentazioni.
Oggi, i chatbot amplificano questo fenomeno perché parlano in modo fluido e sicuro, non mostrano esitazioni, forniscono risposte “complete” anche quando il tema è complesso o controverso e raramente esplicitano i propri limiti. Il risultato è una conoscenza percepita, non una conoscenza reale.
Perché i chatbot sono così persuasivi
I modelli linguistici, ad oggi, non “sanno” nel senso umano del termine. Non comprendono, non valutano la verità, non distinguono tra fatto, ipotesi o opinione. Generano testo statisticamente plausibile, non epistemologicamente fondato. Eppure risultano convincenti perché:
- Usano il linguaggio della competenza: Struttura chiara, lessico appropriato, tono assertivo.
- Ridimensionano il dubbio: Laddove uno studioso direbbe “dipende”, il chatbot spesso risponde con un elenco ordinato.
- Offrono coerenza narrativa: Anche quando sbagliano, lo fanno in modo coerente.
- Non mostrano incertezza emotiva: Nessun “non sono sicuro”, nessuna esitazione, nessun conflitto interno.
Questa combinazione crea una illusione di affidabilità che può ingannare anche utenti più esperti.
Il paradosso: più risposte, meno comprensione
Uno degli effetti più insidiosi dell’uso intensivo dei chatbot è il paradosso cognitivo: all’aumentare delle risposte disponibili, diminuisce lo sforzo di comprensione.
Molti utenti non verificano le fonti, non confrontano punti di vista diversi, non distinguono tra spiegazione e semplificazione, confondono la capacità di ripetere con la capacità di capire. Si capisce che in ambito professionale questo è particolarmente rischioso. Nel mondo IT, legale, medico, finanziario o accademico, una risposta plausibile ma errata può avere conseguenze concrete, economiche o etiche. Questa epistemia è un rischio sociale.
- Il problema non riguarda solo il singolo utente, ma l’intero ecosistema informativo. Decisioni sbagliate prese con troppa sicurezza, manager, studenti, professionisti possono agire sulla base di informazioni non verificate, convinti di avere “capito”.
- Se ogni domanda ha una risposta immediata, viene meno l’abitudine e dilaga l’appiattimento del pensiero critico a discapito dell’approfondire, a leggere fonti primarie, a sostenere un confronto.
- Ricercatori, esperti e istituzioni vengono messi sullo stesso piano di una risposta generata automaticamente. Erosione dell’autorevolezza reale.
- Rischio di disinformazione elegante NON con fake news urlate, ma errori ben scritti, difficili da smascherare.
Chatbot come “specchi cognitivi”
Un aspetto spesso sottovalutato è che i chatbot riflettono il nostro modo di porre le domande. Se chiediamo conferme, ce le danno. Se chiediamo semplificazioni, le forniscono. Se cerchiamo scorciatoie, le offrono. In questo senso, l’epistemia non è solo un difetto della tecnologia, ma una debolezza umana amplificata pechè vorremo sempre più risposte rapide, preferiremo la chiarezza alla complessità, cercheremo conferme più che confutazioni.
I chatbot diventeranno così degli acceleratori dei bias cognitivi, non dei correttori.
Non esiste una soluzione tecnica definitiva al problema dell’epistemia. Nessun disclaimer, nessun “avviso di errore” potrà sostituire la formazione critica dell’utente.
Servono nuove competenze, per capire cosa significa sapere, dimostrare, verificare, capacità di valutare le fonti, abitudine al dubbio ragionato, consapevolezza dei limiti dell’IA. Cose probabilmente scontate e banali sino a 20 anni fa. In altre parole, dobbiamo insegnare non solo come usare i chatbot, ma come non farsi usare da essi. Affidarsi ciecamente a un chatbot per analisi, decisioni o contenuti sensibili non è innovazione: è delegare il pensiero.
Responsabilità individuale
I chatbot non sono oracoli, né sostituti del pensiero umano. Sono strumenti potenti, ma epistemologicamente fragili. Il loro vero pericolo non è l’errore, ma la sicurezza con cui l’errore viene presentato. In un mondo dove le risposte sono ovunque, la vera competenza diventa saper distinguere tra informazione e conoscenza, accettare l’incertezza, mantenere viva la fatica del pensare.
Il sapere è ancora un atto umano. La conoscenza autentica resta un processo umano: lento, imperfetto, spesso scomodo.
L’intelligenza artificiale può aiutarci a esplorare il sapere, ma non può sostituire la responsabilità di comprenderlo.
E forse, nell’era delle risposte immediate, la vera intelligenza consiste proprio nel fermarsi a chiedere: “Lo so davvero, o mi sembra soltanto di saperlo?”

