Cuando los datos contradicen nuestras convicciones, solemos ignorarlos o manipularlos para adaptarlos a unas ideas preconcebidas. Así lo hacen los creacionistas, los antivacunas y los ‘conspiranoicos’ del 11-S
¿Han notado que una persona siempre cambia de opinión cuando le presentan unos datos que contradicen sus convicciones más profundas? No, ¿verdad? Yo tampoco. Es más, da la impresión de que una persona cuando se le presentan pruebas abrumadoras en contra de lo que cree, se reafirma en sus opiniones. El motivo es que esos datos ponen en peligro su visión del mundo.
Los creacionistas, por ejemplo, rechazan las pruebas de la evolución que aportan los fósiles y el ADN porque les preocupa que los poderes laicos estén comiéndole terreno a la fe religiosa. Los enemigos de las vacunas desconfían de las grandes farmacéuticas y piensan que el dinero corrompe la medicina. Eso les lleva a defender que las vacunas causan autismo, pese a que el único estudio que relacionaba esas dos cosas fue desmentido en su día y su autor fue acusado de fraude. Quienes defienden las teorías de la conspiración en torno a los atentados del 11 de septiembre de 2001 en Estados Unidos se fijan en minucias como el punto de fusión del acero de los edificios del World Trade Center que hizo que se derrumbaran, porque creen que el Gobierno mentía y llevó a cabo operaciones encubiertas con el fin de crear un nuevo orden mundial.
Los negacionistas del cambio climático estudian los anillos de los árboles, los núcleos del hielo y las ppm (partes por millón) de los gases de efecto invernadero, porque defienden con pasión la libertad, en especial la de los mercados y las empresas, para actuar sin atenerse a estrictas normas gubernamentales. Quienes aseguraban que Barack Obama no nació en Estados Unidos diseccionaron desesperadamente su certificado de nacimiento en busca de mentiras, porque estaban convencidos de que el primer presidente afroamericano de EE UU era un socialista empeñado en destruir su país. Los defensores de estas teorías estaban convencidos de que quienes se mostraban escépticos ante ellas ponían en peligro su visión del mundo. Y rechazaban los datos que rebatían su postura por considerar que venían del frente enemigo.
El hecho de que las convicciones resulten más fuertes que las pruebas se debe a dos factores: la disonancia cognitiva y el llamado efecto contraproducente. En el clásico When Prophecy Fails (cuando la profecía se equivoca), el psicólogo Leon Festinger y sus coautores escribían en 1956 acerca de la reacción que tuvieron los miembros de una secta que creía en los ovnis cuando la nave espacial que esperaban no llegó a la hora prevista. En lugar de reconocer su error, “siguieron tratando de convencer al mundo entero” y, “en un intento desesperado por eliminar su disonancia, se dedicaron a hacer una predicción tras otra, con la esperanza de acertar con alguna de ellas”. Festinger llamó disonancia cognitiva a la incómoda tensión que surge cuando se piensan dos cosas contradictorias al mismo tiempo.
En su libro de 2007 Mistakes Were Made, But Not By Me (hubo errores, pero yo no los cometí), dos psicólogos sociales, Carol Tavris y Elliot Aronson (alumno de Festinger), documentan miles de experimentos que demuestran que la gente manipula los hechos para adaptarlos a sus ideas preconcebidas con el fin de reducir la disonancia. Su metáfora de la “pirámide de la elección” sitúa a dos individuos juntos en el vértice de la pirámide y muestra cómo, cuando cada uno adopta y defiende una posición distinta, empiezan a distanciarse rápidamente hasta que acaban en extremos opuestos de la base de la pirámide.
Corregir un hecho falso puede reforzar las percepciones equivocadas del grupo
porque se pone en peligro su visión del mundo
En otros experimentos llevados a cabo por el profesor de Dartmouth College (EE UU) Brendan Nyhan y el profesor de la Universidad de Exeter (Reino Unido) Jason Reifler, los investigadores identifican un factor relacionado con esta situación: lo que denominan el efecto contraproducente, “por el que al tratar de corregir las percepciones equivocadas, éstas se refuerzan en el grupo”. ¿Por qué? “Porque ponen en peligro su visión del mundo o de sí mismos”.
Por ejemplo, a los sujetos de los experimentos se les dieron artículos falsos de periódicos que confirmaban ideas erróneas pero muy extendidas, como la de que había armas de destrucción masiva en Irak. Cuando después les mostraron un artículo que explicaba que, en realidad, nunca se habían encontrado dichas armas, quienes se oponían a la guerra aceptaron el nuevo artículo y rechazaron el anterior. Sin embargo, los partidarios de la guerra dijeron que el nuevo artículo les había convencido aún más de que había armas de destrucción masiva, porque probaba que Sadam Husein las había escondido o destruido. De hecho, dicen Nyhan y Reifler, entre muchos de estos últimos participantes, “la idea de que Irak tenía armas de destrucción masiva antes de la invasión encabezada por Estados Unidos persistió hasta mucho después de que el propio Gobierno de Bush llegara a la conclusión de que no era así”.
Si los datos que deberían corregir una opinión solo sirven para empeorar las cosas, ¿qué podemos hacer para convencer al público de que está equivocado? Por mi experiencia, aconsejo mantener las emociones al margen; discutir, no criticar (nada de ataques personales y nada de mencionar a Hitler); escuchar con atención e intentar expresar detalladamente la otra postura; mostrar respeto; reconocer que es comprensible que alguien pueda pensar de esa forma; intentar demostrar que, aunque los hechos sean otros de los que se pensaba, esto no significa necesariamente que se altere la visión del mundo.
Quizá estas estrategias no siempre sirvan para hacer que la gente cambie de opinión, pero es posible que ayuden a que no haya tantas divisiones innecesarias, sobre todo ahora que EE UU está en plena fiebre revisionista de la realidad con fines políticos.
Michael Shermer es fundador y director de la revista Skeptic. Este artículo fue publicado en Scientific American en 2017.
Traducción de María Luisa Rodríguez Tapia.
ELPAIS.ES primera publicación 26/Ene/2018