Por qué los hechos no nos hacen cambiar de opinión
Los nuevos descubrimientos sobre la mente humana muestran las limitaciones de la razón.
19 de febrero de 2017
Elizabeth Colbert
La cacareada capacidad humana de razonar puede tener más que ver con ganar argumentos que con pensar con claridad.
En 1975, investigadores de Stanford invitaron a un grupo de estudiantes universitarios a participar en un estudio sobre el suicidio. Se les presentaron pares de notas de suicidio. En cada par, una nota había sido compuesta por un individuo al azar, la otra por una persona que posteriormente se había quitado la vida. A continuación, se pidió a los estudiantes que distinguieran entre las notas auténticas y los falsas.
Algunos estudiantes descubrieron que tenían un genio para la tarea. De veinticinco pares de notas, identificaron correctamente la verdadera veinticuatro veces. Otros descubrieron que no tenían remedio. Identificaron la nota real en solo diez instancias.
Como suele ser el caso con los estudios psicológicos, todo el montaje fue una farsa. Aunque la mitad de las notas eran auténticas (se habían obtenido de la oficina del forense del condado de Los Ángeles), los resultados eran ficticios. Los estudiantes a los que se les había dicho que casi siempre tenían razón no eran, en promedio, más perspicaces que aquellos a quienes se les había dicho que casi siempre estaban equivocados.
En la segunda fase del estudio, se reveló el engaño. Se les dijo a los estudiantes que el objetivo real del experimento era medir sus respuestas al pensamiento estuvieran bien o mal. (Resultó que esto también era un engaño). Finalmente, se les pidió a los estudiantes que estimaran cuántas notas de suicidio habían categorizado correctamente y cuántas pensaban que un estudiante promedio acertaría. En este punto, sucedió algo curioso. Los estudiantes en el grupo de puntaje alto dijeron que pensaban que, de hecho, lo habían hecho bastante bien, significativamente mejor que el estudiante promedio, aunque, como se les acababa de decir, no tenían motivos para creer esto. Por el contrario, aquellos que habían sido asignados al grupo de puntaje bajo dijeron que pensaban que lo habían hecho significativamente peor que el estudiante promedio, una conclusión que era igualmente infundada.
“Una vez formadas”, observaron secamente los investigadores, “las impresiones son notablemente perseverantes”.
Unos años más tarde, se reclutó a un nuevo grupo de estudiantes de Stanford para un estudio relacionado. A los estudiantes se les entregaron paquetes de información sobre un par de bomberos, Frank K. y George H. La biografía de Frank señaló que, entre otras cosas, tenía una hija y le gustaba bucear. George tenía un hijo pequeño y jugaba al golf. Los paquetes también incluían las respuestas de los hombres en lo que los investigadores llamaron la prueba de elección arriesgada y conservadora. Según una versión del paquete, Frank fue un bombero exitoso que, en la prueba, casi siempre optó por la opción más segura. En la otra versión, Frank también eligió la opción más segura, pero era un pésimo bombero al que sus supervisores habían puesto “sobre aviso” varias veces. Una vez más, a la mitad del estudio, se informó a los estudiantes que habían sido engañados, y que la información que habían recibido era completamente ficticia. Luego se pidió a los estudiantes que describieran sus propias creencias. ¿Qué tipo de actitud hacia el riesgo pensaban que tendría un bombero exitoso? Los estudiantes que habían recibido el primer paquete pensaron que lo evitaría. Los estudiantes del segundo grupo pensaron que lo aceptaría.
Incluso después de que la evidencia “de sus creencias haya sido totalmente refutada, las personas no hacen las revisiones apropiadas de esas creencias”, señalaron los investigadores. En este caso, la falla fue “particularmente impresionante”, ya que dos puntos de datos nunca habrían sido suficiente información para generalizar.
Los estudios de Stanford se hicieron famosos. Viniendo de un grupo de académicos en los años setenta, la afirmación de que la gente no puede pensar con claridad fue impactante. Ya no está. Miles de experimentos posteriores han confirmado (y ampliado) este hallazgo. Como saben todos los que siguieron la investigación, o incluso ocasionalmente tomaron una copia de Psychology Today, cualquier estudiante de posgrado con un portapapeles puede demostrar que las personas que parecen razonables a menudo son totalmente irracionales. Rara vez esta idea ha parecido más relevante que ahora. Aún así, queda un rompecabezas esencial: ¿Cómo llegamos a ser así?
En un nuevo libro, “The Enigma of Reason” (Harvard), los científicos cognitivos Hugo Mercier y Dan Sperber intentan responder a esta pregunta. Mercier, que trabaja en un instituto de investigación francés en Lyon, y Sperber, ahora con sede en la Universidad de Europa Central, en Budapest, señalan que la razón es un rasgo evolucionado, como el bipedalismo o la visión tricolor. Surgió en las sabanas de África y debe entenderse en ese contexto.
Despojado de mucho de lo que podría llamarse ciencia cognitiva, el argumento de Mercier y Sperber es, más o menos, como sigue: la mayor ventaja de los humanos sobre otras especies es nuestra capacidad para cooperar. La cooperación es difícil de establecer y casi tan difícil de mantener. Para cualquier individuo, aprovecharse es siempre el mejor curso de acción. La razón se desarrolló no para permitirnos resolver problemas lógicos abstractos o incluso para ayudarnos a sacar conclusiones de datos desconocidos; más bien, se desarrolló para resolver los problemas planteados por vivir en grupos colaborativos.
“La razón es una adaptación al nicho hipersocial que los humanos han desarrollado para sí mismos”, escriben Mercier y Sperber. Hábitos mentales que parecen extraños o tontos o simplemente tontos desde un punto de vista “intelectualista” resultan astutos cuando se ven desde una perspectiva social “interaccionista”.
Considere lo que se conoce como “sesgo de confirmación”, la tendencia que tienen las personas a abrazar la información que respalda sus creencias y rechazar la información que las contradice. De las muchas formas de pensamiento defectuoso que se han identificado, el sesgo de confirmación se encuentra entre los mejor catalogados; es el tema de experimentos por valor de libros de texto completos. Uno de los más famosos se llevó a cabo, nuevamente, en Stanford. Para este experimento, los investigadores reunieron a un grupo de estudiantes que tenían opiniones opuestas sobre la pena capital. La mitad de los estudiantes estaban a favor y pensaban que disuadía el crimen; la otra mitad estaba en contra y pensaba que no tenía ningún efecto sobre el crimen.
Se pidió a los estudiantes que respondieran a dos estudios. Uno proporcionó datos en apoyo del argumento de la disuasión y el otro proporcionó datos que lo cuestionaron. Ambos estudios, lo adivinó, fueron inventados y habían sido diseñados para presentar lo que eran, hablando objetivamente, estadísticas igualmente convincentes. Los estudiantes que originalmente habían apoyado la pena capital calificaron los datos a favor de la disuasión como altamente creíbles y los datos contra la disuasión como poco convincentes; los estudiantes que originalmente se opusieron a la pena capital hicieron lo contrario. Al final del experimento, se les preguntó una vez más a los estudiantes acerca de sus puntos de vista. Aquellos que habían comenzado a favor de la pena capital ahora estaban aún más a favor de ella; aquellos que se opusieron fueron aún más hostiles.
Si la razón está diseñada para generar juicios sensatos, entonces es difícil concebir un defecto de diseño más serio que el sesgo de confirmación. Imagina, sugieren Mercier y Sperber, un ratón que piensa como nosotros. Tal ratón, “empeñado en confirmar su creencia de que no hay gatos alrededor”, pronto sería la cena. En la medida en que el sesgo de confirmación lleva a las personas a descartar la evidencia de amenazas nuevas o subestimadas, el equivalente humano del gato a la vuelta de la esquina, es un rasgo contra el que se debería haber seleccionado. El hecho de que tanto nosotros como él sobrevivamos, argumentan Mercier y Sperber, prueba que debe tener alguna función adaptativa, y esa función, sostienen, está relacionada con nuestra “hipersociabilidad”.
Mercier y Sperber prefieren el término “sesgo de mi lado”. Los humanos, señalan, no son crédulos al azar. Ante el argumento de otra persona, somos muy hábiles para detectar las debilidades. Casi invariablemente, las posiciones sobre las que estamos ciegos son las nuestras.
Un experimento reciente realizado por Mercier y algunos colegas europeos demuestra claramente esta asimetría. Se pidió a los participantes que respondieran una serie de problemas de razonamiento sencillos. Luego se les pidió que explicaran sus respuestas y se les dio la oportunidad de modificarlas si identificaban errores. La mayoría estaba satisfecha con sus elecciones originales; menos del quince por ciento cambió de opinión en el paso dos.
En el paso tres, a los participantes se les mostró uno de los mismos problemas, junto con su respuesta y la respuesta de otro participante, que había llegado a una conclusión diferente. Una vez más, se les dio la oportunidad de cambiar sus respuestas. Pero se había jugado una mala pasada: las respuestas que se les presentaban como de otra persona eran en realidad propias, y viceversa. Aproximadamente la mitad de los participantes se dieron cuenta de lo que estaba pasando. Entre la otra mitad, de repente la gente se volvió mucho más crítica. Casi el sesenta por ciento ahora rechazó las respuestas con las que antes estaban satisfechos.
Esta asimetría, según Mercier y Sperber, refleja la tarea que la razón evolucionó para realizar, que es evitar que los otros miembros de nuestro grupo nos jodan. Al vivir en pequeños grupos de cazadores-recolectores, nuestros antepasados estaban principalmente preocupados por su posición social y por asegurarse de que no fueran ellos los que arriesgaran sus vidas en la caza mientras otros holgazaneaban en la cueva. Había pocas ventajas en razonar con claridad, mientras que se ganaba mucho ganando argumentos.
Entre los muchos, muchos temas que no preocupaban a nuestros antepasados estaban los efectos disuasorios de la pena capital y los atributos ideales de un bombero. Tampoco tuvieron que lidiar con estudios inventados, noticias falsas o Twitter. No es de extrañar, entonces, que hoy la razón parezca a menudo fallarnos. Como escriben Mercier y Sperber, “Este es uno de los muchos casos en los que el entorno cambió demasiado rápido para que la selección natural lo alcance”.
Steven Sloman, profesor de Brown, y Philip Fernbach, profesor de la Universidad de Colorado, también son científicos cognitivos. Ellos también creen que la sociabilidad es la clave de cómo funciona la mente humana o, quizás más pertinentemente, cómo funciona mal. Comienzan su libro, “The Knowledge Illusion: Why We Never Think Alone” (Riverhead), con una mirada a los inodoros.
Prácticamente todos en los Estados Unidos y, de hecho, en todo el mundo desarrollado, están familiarizados con los inodoros. Un inodoro con descarga típica tiene una taza de cerámica llena de agua. Cuando se presiona la manija o se presiona el botón, el agua, y todo lo que se ha depositado en ella, se succiona a una tubería y de allí al sistema de alcantarillado. Pero, ¿cómo sucede esto realmente?
En un estudio realizado en Yale, se pidió a los estudiantes graduados que calificaran su comprensión de los dispositivos cotidianos, incluidos inodoros, cremalleras y cerraduras de cilindro. Luego se les pidió que escribieran explicaciones detalladas paso a paso de cómo funcionan los dispositivos y que calificaran su comprensión nuevamente. Aparentemente, el esfuerzo reveló a los estudiantes su propia ignorancia, porque sus autoevaluaciones bajaron. (Resulta que los baños son más complicados de lo que parecen).
Sloman y Fernbach ven este efecto, al que llaman “ilusión de profundidad explicativa”, en casi todas partes. La gente cree que sabe mucho más de lo que realmente sabe. Lo que nos permite persistir en esta creencia son otras personas. En el caso de mi inodoro, alguien más lo diseñó para que yo pueda operarlo fácilmente. Esto es algo en lo que los humanos somos muy buenos. Confiamos en la experiencia de los demás desde que descubrimos cómo cazar juntos, lo que probablemente fue un desarrollo clave en nuestra historia evolutiva. Colaboramos tan bien, argumentan Sloman y Fernbach, que difícilmente podemos decir dónde termina nuestra propia comprensión y comienza la de los demás.
“Una implicación de la naturalidad con la que dividimos el trabajo cognitivo”, escriben, es que “no existe un límite definido entre las ideas y el conocimiento de una persona” y “los de otros miembros” del grupo.
Esta falta de fronteras, o, si lo prefiere, la confusión, también es crucial para lo que consideramos progreso. A medida que las personas inventaron nuevas herramientas para nuevas formas de vida, simultáneamente crearon nuevos reinos de ignorancia; si todo el mundo hubiera insistido, por ejemplo, en dominar los principios de la metalurgia antes de coger un cuchillo, la Edad del Bronce no habría sido gran cosa. Cuando se trata de nuevas tecnologías, la comprensión incompleta empodera.
Donde nos mete en problemas, según Sloman y Fernbach, es en el ámbito político. Una cosa es que tire de un inodoro sin saber cómo funciona y otra que esté a favor (o en contra) de una prohibición de inmigración sin saber de lo que estoy hablando. Sloman y Fernbach citan una encuesta realizada en 2014, poco después de que Rusia se anexionara el territorio ucraniano de Crimea. Se preguntó a los encuestados cómo pensaban que debería reaccionar Estados Unidos y también si podían identificar a Ucrania en un mapa. Cuanto más lejos de la base estuvieran sobre la geografía, más probable era que favorecieran la intervención militar. (Los encuestados estaban tan inseguros de la ubicación de Ucrania que la suposición promedio estaba equivocada por mil ochocientas millas, aproximadamente la distancia entre Kiev y Madrid).
Las encuestas sobre muchos otros temas han arrojado resultados igualmente desalentadores. “Por regla general, los sentimientos fuertes sobre los problemas no surgen de una comprensión profunda”, escriben Sloman y Fernbach. Y aquí nuestra dependencia de otras mentes refuerza el problema. Si su posición sobre, digamos, la Ley del Cuidado de Salud a Bajo Precio es infundada y confío en ella, entonces mi opinión también es infundada. Cuando hablo con Tom y él decide que está de acuerdo conmigo, su opinión también es infundada, pero ahora que los tres estamos de acuerdo, nos sentimos mucho más satisfechos con nuestros puntos de vista. Si ahora todos descartamos como poco convincente cualquier información que contradiga nuestra opinión, se obtiene, bueno, la Administración Trump.
“Así es como una comunidad de conocimiento puede volverse peligrosa”, observan Sloman y Fernbach. Los dos han realizado su propia versión del experimento del baño, sustituyendo la política pública por aparatos domésticos. En un estudio realizado en 2012, preguntaron a las personas su postura sobre preguntas como: ¿Debería haber un sistema de salud de pagador único? ¿O pago basado en el mérito para los maestros? Se pidió a los participantes que calificaran sus posiciones según su grado de acuerdo o desacuerdo con las propuestas. A continuación, se les pidió que explicaran, con el mayor detalle posible, los impactos de la implementación de cada uno. La mayoría de las personas en este punto se metieron en problemas. Cuando se les pidió una vez más que calificaran sus puntos de vista, redujeron la intensidad, de modo que estuvieran de acuerdo o en desacuerdo con menos vehemencia.
Sloman y Fernbach ven en este resultado una pequeña vela para un mundo oscuro. Si nosotros, o nuestros amigos o los expertos de CNN, dedicáramos menos tiempo a pontificar y más a tratar de analizar las implicaciones de las propuestas de políticas, nos daríamos cuenta de lo despistados que somos y moderaríamos nuestras opiniones. Esto, escriben, “puede ser la única forma de pensamiento que romperá la ilusión de profundidad explicativa y cambiará las actitudes de las personas”.
Una forma de ver la ciencia es como un sistema que corrige las inclinaciones naturales de las personas. En un laboratorio bien dirigido, no hay lugar para el sesgo de mi lado; los resultados tienen que ser reproducibles en otros laboratorios, por investigadores que no tienen motivo para confirmarlos. Y esto, se podría argumentar, es la razón por la que el sistema ha demostrado ser tan exitoso. En un momento dado, un campo puede estar dominado por disputas, pero, al final, prevalece la metodología. La ciencia avanza, incluso mientras permanecemos atrapados en el lugar.
En “Denying to the Grave: Why We Ignore the Facts That Will Save Us” (Oxford), Jack Gorman, psiquiatra, y su hija, Sara Gorman, especialista en salud pública, investigan la brecha entre lo que la ciencia nos dice y lo que nos decimos a nosotros mismos. Su preocupación es con esas creencias persistentes que no solo son demostrablemente falsas sino también potencialmente mortales, como la convicción de que las vacunas son peligrosas. Por supuesto, lo que es peligroso no es estar vacunado; por eso se crearon las vacunas en primer lugar. “La inmunización es uno de los triunfos de la medicina moderna”, señalan los Gorman. Pero no importa cuántos estudios científicos concluyan que las vacunas son seguras y que no existe un vínculo entre las inmunizaciones y el autismo, los antivacunas permanecen impasibles. (Ahora pueden contar con su lado, más o menos, Donald Trump, quien ha dicho que, aunque él y su esposa vacunaron a su hijo, Barron, se negaron a hacerlo en el calendario recomendado por los pediatras).
Los Gorman también argumentan que las formas de pensar que ahora parecen autodestructivas deben haber sido adaptativas en algún momento. Y ellos también dedican muchas páginas al sesgo de confirmación que, según afirman, tiene un componente fisiológico. Citan investigaciones que sugieren que las personas experimentan un placer genuino, una ráfaga de dopamina, cuando procesan información que respalda sus creencias. “Se siente bien ‘mantenernos firmes’ incluso si estamos equivocados”, observan.
Los Gorman no solo quieren catalogar las formas en que nos equivocamos; quieren corregir por ellos. Debe haber alguna forma, sostienen, de convencer a la gente de que las vacunas son buenas para los niños y que las armas de fuego son peligrosas. (Otra creencia generalizada pero estadísticamente insostenible que les gustaría desacreditar es que poseer un arma te hace más seguro). Pero aquí se encuentran con los mismos problemas que han enumerado. Proporcionar a las personas información precisa no parece ayudar; simplemente lo descuentan. Apelar a sus emociones puede funcionar mejor, pero hacerlo es obviamente la antítesis del objetivo de promover una ciencia sólida. “El desafío que queda”, escriben hacia el final de su libro, “es descubrir cómo abordar las tendencias que conducen a falsas creencias científicas”.
“El enigma de la razón”, “La ilusión del conocimiento” y “Negar a la tumba” se escribieron antes de las elecciones de noviembre. Y, sin embargo, anticipan a Kellyanne Conway y el surgimiento de “hechos alternativos”. En estos días, puede parecer que todo el país se ha entregado a un gran experimento psicológico dirigido por nadie o por Steve Bannon. Los agentes racionales serían capaces de pensar en su camino hacia una solución. Pero, al respecto, la literatura no es tranquilizadora.
https://www.newyorker.com/magazine/2017/02/27/why-facts-dont-change-our-minds/amp?