PERCHE' I FATTI NON CAMBIANO LE NOSTRE OPINONI


Cari Amici,
volevo condividere con voi un articolo apparso sul New Yorker qualche tempo fa. E' un tentativo di risposta sul perché anche davanti ai fatti molte persone non cambiano idea. Lo pubblico integralmente tradotto dall'inglese. Non rispecchia sulle conclusioni la mia opinione. Non credo nell'approccio evoluzionistico, ma concordo sulla osservazione dei fatti. Non credo al Moloch assoluto della scienza (anche lì si nascondono insidie) ma credo nella razionalità. E' interessante comunque come certi meccanismi sono perfettamente sovrapponibili anche a chi appartiene a delle religioni e ha credenze a cui vengono opposti dei fatti ma si attiene strettamente a quelle credenze. In generale lo trovo interessante. Ovviamente questo è un blog aperto a domande critiche e suggerimenti. Se avete qualcosa da dire in privato la mia email è corrado.palazzi@gmail.com. Buona (lunga) lettura



Corrado


27 febbraio 2017 Numero

Perché i fatti non cambiano le nostre opinioni

Nuove scoperte sulla mente umana mostrano i limiti della ragione.


Di Elizabeth Kolbert





La decantata capacità umana di ragionare potrebbe avere più a che fare con argomenti vincenti che con pensieri corretti.


Illustrazione di Gérard DuBois

Nel 1975, i ricercatori di Stanford hanno invitato un gruppo di studenti universitari a prendere parte a uno studio sul suicidio. Gli sono state presentate coppie di note di suicidio. In ogni coppia, una nota era stata composta da un individuo a caso, l'altra da una persona che in seguito si era tolta la vita. Agli studenti è stato quindi chiesto di distinguere tra le note vere e quelle false.


Alcuni studenti hanno scoperto di avere una particolare predisposizione per tale compito. Su venticinque paia di note, hanno identificato correttamente quelle reali ventiquattro volte. Altri scoprirono che erano senza speranza. Hanno identificato la nota reale solo in dieci casi.


Come spesso accade negli studi psicologici, l'intero setup era una finzione. Anche se metà delle note erano reali - erano state ottenute dall'ufficio del coroner della contea di Los Angeles - i punteggi erano fittizi. Gli studenti a cui era stato detto che avevano quasi sempre ragione non erano, in media, migliori di quelli a cui era stato detto che avevano per lo più sbagliato.


Nella seconda fase dello studio, l'inganno è stato rivelato. Agli studenti è stato detto che il vero scopo dell'esperimento era valutare le loro risposte al pensiero di aver ragione o torto. (Questo, si è scoperto, era anche un inganno.) Alla fine, agli studenti è stato chiesto di stimare quanti suicidi avevano effettivamente classificato correttamente, e quanti pensavano che uno studente medio avrebbe indovinato. A questo punto, è successo qualcosa di curioso. Gli studenti del gruppo di alto punteggio hanno affermato di ritenere di aver fatto, in effetti, un risultato decisamente migliore rispetto allo studente medio, anche se, come era stato loro appena detto, non avevano motivi per crederlo. Viceversa, coloro che erano stati assegnati al gruppo di basso punteggio hanno affermato di ritenere di aver fatto qualcosa di significativamente peggiore rispetto allo studente medio, una conclusione altrettanto infondata.


"Una volta formate", i ricercatori osservarono in modo chiaro, "le prime impressioni sono notevolmente perseveranti".


Alcuni anni dopo, un nuovo gruppo di studenti di Stanford fu reclutato per uno studio correlato. Agli studenti furono consegnate delle informazioni su una coppia di vigili del fuoco, Frank K. e la biografia di George H.


Frank, tra le altre cose, aveva una figlia piccola e gli piaceva fare immersioni. George aveva un figlio piccolo e giocava a golf. Le informazioni includevano anche le risposte degli uomini su ciò che i ricercatori chiamavano il Risky-Conservative Choice Test.


Frank era un vigile del fuoco di successo che, sul test, quasi sempre sceglieva l'opzione più sicura. Nell'altra versione, Frank scelse anche l'opzione più sicura, ma era un pessimo pompiere che era stato messo "a rapporto" dai suoi supervisori più volte. Ancora una volta, a metà dello studio, gli studenti sono stati informati che erano stati ingannati, e che le informazioni che avevano ricevuto erano del tutto fittizie. Agli studenti è stato quindi chiesto di descrivere le proprie convinzioni. Che tipo di atteggiamento nei confronti del rischio pensavano che avrebbe avuto un vigile del fuoco di successo? Gli studenti che avevano ricevuto il primo pacchetto pensavano che l'avrebbe evitato. Gli studenti del secondo gruppo pensavano che l'avrebbe abbracciato.


Anche dopo che le prove "per le loro convinzioni sono state completamente confutate, le persone non riescono a fare le opportune revisioni in quelle credenze", hanno osservato i ricercatori. In questo caso, l'errore era "particolarmente impressionante", poiché i dati non sarebbero mai stati sufficienti per trarre informazioni da cui generalizzare.


Gli studi di Stanford divennero famosi. Proveniente da un gruppo di accademici negli anni '70, l'idea che le persone non possano pensare chiaramente era scioccante. Non lo è più. Migliaia di esperimenti successivi hanno confermato (e approfondito) questo risultato. Come chiunque abbia seguito la ricerca - o anche occasionalmente preso una copia di Psychology Today - sa, qualsiasi studente laureato con un blocco per appunti può dimostrare che le persone apparentemente ragionevoli sono spesso totalmente irrazionali. Raramente questa intuizione è sembrata più rilevante di adesso. Tuttavia, rimane un enigma essenziale: come siamo arrivati ​​a questo?


In un nuovo libro, "The Enigma of Reason" (Harvard), gli scienziati cognitivi Hugo Mercier e Dan Sperber tentano di rispondere a questa domanda. Mercier, che lavora presso un istituto di ricerca francese a Lione, e Sperber, ora con sede presso l'Università dell'Europa centrale, a Budapest, sottolinea che la ragione sta in un tratto evolutivo, come il bipedismo o la visione a tre colori. È emerso nelle savane dell'Africa e deve essere compreso in quel contesto.


Spogliata di molte delle cosiddette scienze cognitive, l'argomentazione di Mercier e Sperber dice, più o meno, come segue: Il più grande vantaggio degli umani rispetto alle altre specie è la nostra capacità di cooperare. La cooperazione è difficile da stabilire e quasi altrettanto difficile da sostenere. Per ogni individuo, il freeloading è sempre la migliore linea d'azione. La ragione si è sviluppata per non permetterci di risolvere problemi astratti, logici o addirittura per aiutarci a trarre conclusioni da dati sconosciuti; piuttosto, si è sviluppata per risolvere i problemi posti dal vivere in gruppi collaborativi.


"La ragione è un adattamento alla nicchia ipersociale che gli esseri umani hanno evoluto", scrivono Mercier e Sperber. Abitudini mentali che sembrano strane o stupide o semplicemente stupide da un punto di vista "intellettualistico" si rivelano scaltre se viste da una prospettiva "interazionista" sociale.


Considerate ciò che è noto come "bias di conferma", la tendenza delle persone di abbracciare le informazioni che supportano le loro convinzioni e rifiutare le informazioni che le contraddicono. Tra le molte forme di pensiero errato che sono state identificate, il bias di conferma è tra i migliori catalogati; è il tema di interi esperimenti pubblicati in libri di riferimento. Uno del più famoso di questi è stato condotto, ancora una volta, a Stanford. Per questo esperimento, i ricercatori hanno radunato un gruppo di studenti che avevano opinioni contrastanti sulla pena di morte. Metà degli studenti erano favorevoli e pensavano che scoraggiasse il crimine; l'altra metà era contraria e pensava che non avesse alcun effetto sul crimine.


Agli studenti è stato chiesto di rispondere a due studi. Uno ha fornito dati a supporto dell'argomento di dissuasione e l'altro ha fornito dati che lo hanno messo in discussione. Entrambi gli studi, avete indovinato, sono stati inventati ed erano stati progettati per presentare quelle che erano, oggettivamente parlando, statistiche altrettanto convincenti. Gli studenti che avevano inizialmente sostenuto la pena capitale hanno valutato i dati pro-deterrenza altamente credibili e i dati anti-dissuasione non convincenti; gli studenti che si erano inizialmente opposti alla pena capitale hanno fatto il contrario. Alla fine dell'esperimento, agli studenti è stato chiesto nuovamente le loro opinioni. Quelli che avevano iniziato la punizione a favore del capitale erano ora ancora più favorevoli; quelli che si erano opposti erano persino più ostili.


Se la ragione è concepita per generare giudizi sensati, allora è difficile concepire un difetto di progettazione più insensato del pregiudizio di conferma. "Immaginate," suggeriscono Mercier e Sperber, un topo che pensa come noi. Un topo simile, "deciso a confermare la sua convinzione che non ci siano gatti in giro," sarebbe presto la cena del gatto. Nella misura in cui il bias di conferma porta le persone a respingere le prove di minacce nuove o sottovalutate - l'equivalente umano del gatto dietro l'angolo - è un tratto che avrebbe dovuto essere stato selezionato negativamente. "Il fatto che sia noi che i topi sopravviviamo," sostengono Mercier e Sperber, "dimostra che ciò deve avere una funzione adattiva, e quella funzione, " sostengono, "è legata alla nostra "ipersociabilità"."


Mercier e Sperber preferiscono il termine "myside bias". Gli esseri umani, sottolineano, non sono casualmente creduloni. Con ragionamenti creati argomentazioni di qualcun altro, siamo abbastanza abili nell'individuare le debolezze. Quasi invariabilmente, le posizioni di cui siamo ciechi sono le nostre.


Un recente esperimento condotto da Mercier e alcuni colleghi europei dimostra chiaramente questa asimmetria. Ai partecipanti è stato chiesto di rispondere a una serie di semplici problemi di ragionamento. In una seconda fase gli è stato quindi chiesto di spiegare le loro risposte e hanno avuto la possibilità di modificarle se hanno identificato degli errori. La maggioranza era soddisfatta delle loro scelte originali; meno del 15% ha cambiato idea nel secondo passaggio.


Nella fase tre, ai partecipanti è stato mostrato uno degli stessi problemi, insieme alla loro risposta e alla risposta di un altro partecipante, che era giunto a una conclusione diversa. Ancora una volta, hanno avuto la possibilità di cambiare le loro risposte. Ma qui c'era un inganno: le risposte presentate a loro come quelle di qualcun altro erano in realtà le loro, e viceversa. Circa la metà dei partecipanti ha capito cosa stava succedendo. L'altra metà, improvvisamente erano diventati molto più critici. Quasi il sessanta per cento ha respinto le risposte di cui prima erano stati soddisfatti.


Non c'è da meravigliarsi, quindi, che oggi la ragione spesso ci manchi. Come scrivono Mercier e Sperber: "Questo è uno dei tanti casi in cui l'ambiente è cambiato troppo rapidamente per consentire alla selezione naturale di recuperare".


Steven Sloman, un professore della Università di Brown, e Philip Fernbach, professore all'Università del Colorado, sono anche loro scienziati cognitivi. Anche loro credono che la socialità sia la chiave di come funziona la mente umana o, forse più pertinentemente, i malfunzionamenti. Iniziano il loro libro, "The Knowledge Illusion: Why We Never Think Solo" (Riverhead), con uno sguardo ai bagni.


Praticamente tutti negli Stati Uniti, e in effetti in tutto il mondo sviluppato, hanno familiarità con i servizi igienici. Un tipico sciacquone ha una ciotola di ceramica piena d'acqua. Quando la maniglia è abbassata, o il pulsante premuto, l'acqua e tutto ciò che è stato depositato in esso viene aspirata in un tubo e da lì nel sistema fognario. Ma come succede in realtà?


In uno studio condotto a Yale, agli studenti laureati è stato chiesto di valutare la loro comprensione dei dispositivi di tutti i giorni, compresi i servizi igienici, le chiusure lampo e le serrature dei cilindri. Poi è stato chiesto loro di scrivere dettagliate spiegazioni passo-passo su come funzionano i dispositivi e di valutare di nuovo la loro comprensione. Apparentemente, lo sforzo ha rivelato agli studenti la loro ignoranza, perché le loro autovalutazioni sono fallite. (I servizi igienici, si scopre, sono più complicati di quanto non appaiano.)


Sloman e Fernbach vedono questo effetto, che chiamano "l'illusione della profondità esplicativa", quasi ovunque. Le persone credono di sapere molto più di quello che realmente fanno. Ciò che ci permette di persistere in questa convinzione sono le altre persone. Nel caso del mio bagno, qualcun altro l'ha progettato in modo da poterlo usare facilmente. Questo è qualcosa in cui gli umani sono molto bravi. Ci siamo affidati alla nostra reciproca esperienza sin da quando abbiamo capito come cacciare insieme, che è stato probabilmente uno sviluppo chiave nella nostra storia evolutiva. Così bene collaboriamo, affermano Sloman e Fernbach, che difficilmente possiamo dire dove finisce la nostra comprensione e inizia quella degli altri.


"Un'implicazione della naturalezza con cui dividiamo il lavoro cognitivo", scrivono, è che non esiste "nessun confine preciso tra le idee e le conoscenze di una persona" e "quelle degli altri membri" del gruppo.


Questa assenza di confini, o, se preferite, la confusione, è anche cruciale per ciò che consideriamo il progresso. Mentre le persone inventavano nuovi strumenti per nuovi modi di vivere, creavano simultaneamente nuovi regni di ignoranza; se tutti avessero insistito, ad esempio, nel padroneggiare i principi della lavorazione dei metalli prima di prendere un coltello, l'età del bronzo non sarebbe durata molto. Quando si tratta di nuove tecnologie, la comprensione incompleta dà potere.


Dove ci mette nei guai, secondo Sloman e Fernbach, è nel dominio politico. Una cosa sciacquare un bagno senza sapere come funziona, e un altra è favorire (oppure oppormi) ad un divieto di immigrazione senza sapere di cosa sto parlando. Sloman e Fernbach citano un'indagine condotta nel 2014, non molto tempo dopo che la Russia ha annesso il territorio ucraino della Crimea. Agli intervistati è stato chiesto come pensavano che gli Stati Uniti avrebbero dovuto reagire e anche se avrebbero potuto identificare l'Ucraina su una mappa. Più ignoravano la geografia, più era probabile che avessero favorito l'intervento militare. (Gli intervistati erano così incerti sulla posizione dell'Ucraina che l'ipotesi media era sbagliata di milleottocento miglia, grosso modo la distanza tra Kiev e Madrid).


Sondaggi su molti altri problemi hanno prodotto risultati altrettanto sgradevoli. "Di regola, i sentimenti forti sui problemi non emergono dalla profonda comprensione", scrivono Sloman e Fernbach. E qui la nostra dipendenza da altre menti aumenta il problema. Se la tua posizione su, ad esempio, l'Affordable Care Act è infondata e faccio affidamento su di essa, allora anche la mia opinione è infondata. Quando parlo con Tom e lui decide di essere d'accordo con me, e anche la sua opinione è infondata, ma ora che noi tre siamo d'accordo ci sentiamo molto più compiaciuti dele nostre opinioni. Se ora tutti ignoriamo come non convincenti qualsiasi informazione che contraddica la nostra opinione, si ottiene, beh, l'amministrazione Trump.


"È così che una comunità di conoscenze può diventare pericolosa", osservano Sloman e Fernbach. I due hanno eseguito la propria versione dell'esperimento del bagno, sostituendo la politica pubblica ai gadget domestici. In uno studio condotto nel 2012, hanno chiesto alla gente la loro posizione su domande come: Dovrebbe esserci un sistema di assistenza sanitaria a pagamento unico? O retribuzione basata sul merito per gli insegnanti? Ai partecipanti è stato chiesto di valutare le loro posizioni in base a quanto fortemente erano d'accordo o in disaccordo con le proposte. Successivamente, sono stati incaricati di spiegare, nel modo più dettagliato possibile, gli impatti derivanti dall'implementazione di ciascuno di esse. La maggior parte delle persone a questo punto ha avuto problemi. Chiedendo ancora una volta di valutare i loro punti di vista, hanno diminuito l'intensità, in modo tale che entrambi fossero d'accordo o in disaccordo con meno veemenza.


Sloman e Fernbach vedono in questo risultato una piccola candela per un mondo oscuro. Se noi - o i nostri amici o gli esperti della CNN - spendessimo meno tempo a pontificare e più a cercare di elaborare le implicazioni delle proposte politiche, ci renderemo conto di quanto siamo incapaci e modereremmo le nostre opinioni. Questo, scrivono, "potrebbe essere l'unica forma di pensiero che frantumerà l'illusione della profondità esplicativa e cambierà le attitudini delle persone".


Un modo di guardare alla scienza è come un sistema che corregge le inclinazioni naturali delle persone. In un laboratorio ben gestito, non c'è spazio per il myside bias ; i risultati devono essere riproducibili in altri laboratori, da ricercatori che non hanno motivo di confermarli. E questo, si potrebbe argomentare, è il motivo per cui il sistema ha avuto un tale successo. In un dato momento, un campo può essere dominato da litigi, ma alla fine prevale la metodologia. La scienza avanza, anche se restiamo bloccati sul posto.


In “Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), , Jack Gorman, uno psichiatra, e sua figlia, Sara Gorman, specialista in salute pubblica, sondano il divario tra ciò che la scienza ci dice e che cosa ci diciamo. La loro preoccupazione è con quelle credenze persistenti che non sono solo dimostrabilmente false ma anche potenzialmente mortali, come la convinzione che i vaccini sono pericolosi. Certo, ciò che è pericoloso non lo è essere vaccinato; ecco perché i vaccini sono stati creati in primo luogo. "L'immunizzazione è uno dei trionfi della medicina moderna", notano i Gormans. Ma non importa quanti studi scientifici concludono che i vaccini sono sicuri e che non esiste alcun legame tra vaccinazioni e autismo, gli anti vaxx rimangono immutati. (Ora possono contare sul loro tipo-di-Donald Trump, che ha detto che, sebbene lui e sua moglie abbiano fatto vaccinare il loro figlio, Barron, si sono rifiutati di farlo secondo il calendario raccomandato dai pediatri).


Anche i Gorman sostengono che i modi di pensare che ora sembrano autodistruttivi devono, a un certo punto, essere stati adattivi. E anche loro dedicano molte pagine a pregiudizi di conferma che, sostengono, hanno una componente fisiologica. Citano ricerche che suggeriscono che le persone provano piacere genuino - una scarica di dopamina - quando elaborano informazioni che supportano le loro convinzioni. "È bello" attenersi alle proprie convinzioni "anche se abbiamo torto", osservano.


I Gorman non vogliono solo catalogare i modi in cui sbagliamo; vogliono correggerli. Ci deve essere un modo, sostengono,per convincere la gente che i vaccini sono buoni per i bambini e le pistole sono pericolose. (Un'altra credenza diffusa ma statisticamente non supportabile che vorrebbero screditare è che possedere una pistola ti rende più sicuro.) Ma qui incontrano i problemi che hanno elencato. Fornire alle persone informazioni accurate non sembra essere d'aiuto; semplicemente non ne danno credito. Fare appello alle proprie emozioni può funzionare meglio, ma farlo è ovviamente antitetico all'obiettivo di promuovere una scienza sana. "La sfida che rimane", scrivono verso la fine del loro libro, "è capire come affrontare le tendenze che portano a false credenze scientifiche".


"L'enigma della ragione", "L'illusione della conoscenza" e "Negare alla tomba" furono tutti scritti prima delle elezioni di novembre. Eppure anticipano Kellyanne Conway e l'ascesa di "fatti alternativi". In questi giorni, si può pensare che l'intero paese sia stato dedicato a un vasto esperimento psicologico gestito da nessuno o da Steve Bannon. Le persone razionali sarebbero in grado di pensare a una soluzione. Ma, a questo proposito, la letteratura non è rassicurante. ♦


Questo articolo viene visualizzato nell'edizione stampata del 27 febbraio 2017, con il titolo "That's What You Think".







Elizabeth Kolbert è stata scrittrice di The New Yorker dal 1999. Ha vinto il Pulitzer Prize 2015 per la saggistica generale per " The Sixth Extinction: An Unnatural History".

Commenti

  1. Mah, che dire . Un certo signor Socrate , più di 2400 anni fa diceva che rendersi conto di "saper di non sapere" , di quanto si è ignoranti, è l'inizio di ogni sapienza . Anche l'apostolo Paolo parla di falsa conoscenza .
    Siamo in buona compagnia.
    M. B.

    RispondiElimina

Posta un commento

Lascia il tuo commento, se lo lasci in modalità anonima ricorda di mettere un nickname :-)