Fermati un secondo e rispondi a queste semplici domande:
Nella Bibbia, quale animale ha inghiottito Giona?
Quanti animali di ogni tipo portò Mosè nell’arca?
Se sei come la maggior parte delle persone, avrai risposto “balena” alla prima domanda e “due” alla seconda. Pochissime persone si rendono conto che non fu Mosè, ma Noè, a costruire l’arca, secondo la Bibbia.
Questo fenomeno è noto come “Illusione di Mosè” e ha profonde implicazioni nella vita quotidiana perché riflette la nostra incapacità di rilevare gli errori nel mondo. Anche se conosciamo le informazioni corrette, abbiamo la tendenza a trascurare gli errori.
Cecità agli errori
Nel 1981 due psicologi, Thomas D. Erickson dell’Università della California e Mark E. Mattson della State University di New York, scoprirono che l’80% delle persone non notava l’errore nelle domande.
Il dato curioso era che i partecipanti non notavano l’errore anche quando erano stati avvertiti che alcune domande potevano essere sbagliate o quando veniva eliminata la pressione del tempo, perché potessero pensare con più calma.
Gli psicologi della Duke University fecero un ulteriore passo in avanti replicando l’esperimento, ma evidenziando in rosso alcuni dati importanti che i partecipanti dovevano valutare con maggiore attenzione. I risultati furono disastrosi.
La maggior parte delle persone non solo continuò senza notare l’errore, ma in un test successivo inclusero i dati errati nelle risposte, il che indica che li avevano incorporati nella loro visione del mondo.
Il punto è che pochi giorni prima del test gli psicologi avevano valutato le loro conoscenze ed erano corrette. Ciò significa che, sebbene apparentemente non ci fissiamo sui dettagli sbagliati, le nostre menti ne prendono atto e li incorporano nel nostro sistema di conoscenze.
Tutto è vero fino a prova contraria
Tutti pensiamo di essere intelligenti e che se vediamo un errore o informazioni false, li noteremo e non ci crederemo. Ma nella realtà, tutti possiamo essere ingannati. L’illusione di Mosè si basa sul nostro modo di elaborare le informazioni.
Spinoza ipotizzò che quando siamo di fronte a un’idea, invece di seguire un percorso logico di valutazione per accettarla o rifiutarla, la accettiamo automaticamente. Il rifiuto sarebbe un secondo passo che richiede uno sforzo cognitivo maggiore.
La scienza conferma la sua ipotesi. I ricercatori dell’Università del Texas chiesero a un gruppo di persone di diventare giudici indicando a quale pena condannare due criminali che avevano commesso un delitto. La “trappola” consisteva nel fatto che i rapporti della polizia contenevano dichiarazioni vere e false, ognuna in colori diversi.
Sebbene i partecipanti erano stati avvertiti che i rapporti contenevano dati falsi e venne loro detto quali fossero, questi suggerivano quasi il doppio di anni di carcere quando le dichiarazioni false esacerbavano la gravità del crimine. Ciò dimostra che, inizialmente, assumiamo ciò che leggiamo o sentiamo come vero e solo dopo aver riflettuto possiamo classificarlo come falso.
Perché siamo positivamente di parte?
La teoria della verità predefinita
Siamo tutti inclini a ciò che è noto come “pregiudizio della verità”, che si verifica indipendentemente dalla fonte delle informazioni o dalla conoscenza precedente che abbiamo.
Sulla base della teoria della verità predefinita Truth-Default Theory (TDT), assumiamo sempre che gli altri siano onesti. Non pensiamo all’inganno come possibilità nella comunicazione fino a quando non avremo indizi che ci fanno dubitare. Infatti, uno studio dell’Università dell’Alabama indica che la nostra precisione nel rilevare le bugie è inferiore al 50%.
La tendenza iniziale a considerare le affermazioni come vere è probabilmente una propensione a facilitare la comunicazione. Dopotutto, è molto più facile supporre che la persona di fronte a noi ci stia dicendo la verità piuttosto che passare attraverso un “rilevatore di bugie” tutto ciò che dice.
In realtà, non cadiamo nell’illusione di Mosè quando l’informazione è palesemente sbagliata. Gli psicologi della Northwestern University hanno scoperto che confidiamo meno nelle inesattezze incredibili che in quelle plausibili. Quindi se ci chiedessero “Quanti animali di ogni tipo Kennedy portò sull’arca?” avremmo notato subito l’errore. Il problema è quando l’informazione è plausibile.
È possibile sfuggire all’illusione di Mosè?
Avere più esperienza o una maggiore conoscenza di determinati argomenti ci consentirà di essere più preparati a rilevare errori, falsità e disinformazione. Uno studio condotto presso la Duke University, ad esempio, ha scoperto che gli studenti di Storia rilevano meglio gli errori storici rispetto agli studenti di Biologia e viceversa. Tuttavia, la conoscenza preliminare non è sufficiente perché molte volte non la usiamo.
Un esperimento condotto presso la Vanderbilt University ha scoperto che il modo più efficace per ridurre l’illusione di Mosè è agire come se fossimo verificatori dei fatti. In altre parole, assumere un atteggiamento critico fin dall’inizio e verificare tutte le informazioni.
È uno sforzo cognitivo notevole, ma attivare il nostro pensiero critico è l’unico modo per proteggerci dalla manipolazione, dall’inganno e dalla disinformazione.
Fonti:
Fazio, L. (2020) Why you stink atfact-checking. In: The Conversation.
Cantir, A. D. & Marsh, E. J. (2017) Expertise effects in the Moses illusion: detecting contradictions with stored knowledge. Memory; 25(2): 220-230.
Hinze, S. R. et. Al. (2014) Pilgrims sailing the Titanic: Plausibility effects on memory for misinformation. Memory & Cognition; 42: 305–324.
Marsh, E. J., & Umanath, S. (2014) Knowledge neglect: Failures to notice contradictions with stored knowledge. En: D. N. Rapp & J. L. G. Braasch (Eds.), Processing inaccurate information: Theoretical and applied perspectives from cognitive science and the educational sciences (p. 161–180).
Levine, T. R. (2014) Truth-Default Theory (TDT): A Theory of Human Deception and Deception Detection. Journal of Language and Social Psychology; 33(4): 378-392.
Eslick, A. N. et. Al. (2011) Ironic effects of drawing attention to story errors. Memory; 19(2): 184-191.
Marsh, E. J. & Fazio, L. K. (2006) Learning errors from fiction: difficulties in reducing reliance on fictional stories. Mem Cognit; 34(5):1140-9.
Gilbert, D. T. (1993) You can’t not believe everything you read. J Pers Soc Psychol; 65(2):221-33.
Erickson, T. D. & Mattson, M. E. (1981) From words to meaning: A semantic illusion. Journal of Verbal Learning and Verbal Behavior; 20(5): 540-551.
Lascia un commento