¿Cómo se forman nuestras creencias y porque nos cuesta tanto cambiarlas?

La investigación llevada a cabo por científicos sociales que utilizan enfoques cognitivos sobre los elementos que producen polarización, desinformación o negacionismo, ha ofrecido resultados a veces contradictorios y a veces contraintuitivos. En ciertos contextos, poseer habilidades y conocimientos científicos aleja de la desinformación, cambia la percepción del riesgo y orienta favorablemente hacia la innovación. Por ejemplo, en el caso de las vacunas o de los OGM; en cambio, en otros casos, como el cambio climático o la investigación sobre embriones humanos, altos niveles de competencias científicas pueden llevar a la radicalización de la posición tomada sobre una base preconcebida.

El gran experimento social que estamos viviendo con la Covid-19 ha estimulado varios trabajos empíricos, cuyo objetivo es investigar el papel de los factores político-ideológicos, sociales, psicométricos, cognitivos, psicológicos y éticos que influyen en la percepción de la amenaza sanitaria, el consenso hacia las decisiones políticas y el juicio sobre el comportamiento de los gobernantes. Una publicación particularmente interesante es la firmada por Gordon Pennycook y David G. Rand, dos psicólogos cognitivos norteamericanos que han estudiado las bases cognitivas de las fake news, demostrando de manera convincente que los déficits de razonamiento analítico explican mejor que los prejuicios ideológico-culturales el contagio de las falsas creencias y las conspiraciones.

La investigación argumenta que enseñar los conceptos científicos básicos y el pensamiento crítico produce mayor confianza hacia la gestión de médicos y científicos, y hacia las recomendaciones que provienen de estudios evidence based. Sin embargo, a esto no se correspondería una diferente percepción del riesgo o una mayor facilidad a la hora de cambiar de hábitos. Dicho de otra forma: la reflexión, conocer las estadísticas, cultivar la duda y poseer bases científicas resulta importante para identificar la falsa información, pero no parece influir en la elección de comportamientos más efectivos ni motivar a cambiar de hábitos.

Según este estudio, los cambios en los comportamientos de la población consecuentes a la Covid-19 son determinados sobre todo por el miedo a la enfermedad. Así, si el objetivo es introducir hábitos acordes con la reducción del riesgo, los comunicaciones deberían centrarse en esto, en lugar de explicar a las personas cómo funciona técnicamente el virus o tratar de proporcionar información demasiado compleja. Es un mecanismo más simple, vinculado al reflejo ancestral de supervivencia, donde la amígdala tiene más poder que el córtex prefrontal.

Lo que está claro es que cambiar de opinión, y luego de comportamiento, no es nada simple. Una vez establecido en el cerebro, el hábito ya no depende de la parte consciente, sino de automatismos instintivos, de los que descienden muchas de nuestras decisiones. Son los sesgos cognitivos, las distorsiones y los patrones que nuestro cerebro está acostumbrado a activar automáticamente y que nos empujan a elegir en un sentido u otro. La presión social desata uno de los sesgos más poderosos: el hecho de que muchas personas hagan algo, hace que este algo nos parezca más aceptable. Un producto innovador tiene éxito cuando pasa la fase de lanzamiento y queda claro que alguien ya lo ha comprado con satisfacción. En la naturaleza, solo los individuos más valientes corren el riesgo de tomar nuevos caminos. Son los que generan el cambio, pero son una minoría.

En una organización, los sesgos más peligrosos, pero también muy comunes, son los de confirmación, es decir, la tendencia del cerebro a buscar confirmación de lo que ya pensamos. En un líder esto hace que valore solo las opiniones confirmatorias, descartando las contrarias. Y también el sesgo del status quo, la propensión a no cambiar las condiciones iniciales de una decisión. Esto produce un grave déficit de flexibilidad, algo que puede ser mortal en los tiempos que vivimos.

Es interesante que las personas que se toman un tiempo para decidir, emitir juicios sobre la exactitud de la información, suelen estar más protegidas de las falsas creencias. En otras palabras: fortalecer la capacidad mental para mantener a raya las respuestas intuitivas, controlando las reacciones impulsivas, y apostar por el pensamiento analítico y reflexivo es una buena estrategia contra la desinformación: responder es mejor que reaccionar.

Los modelos mentales son estructuras que nos ayudan a comprender los eventos que nos rodean. Para cambiarlos, necesitamos pruebas irrefutables y, en cualquier caso, no podremos sustituir un modelo mental hasta que no tengamos otro más válido. Esto significa que para corregir las falsas creencias hay que llenar el vacío que se crea al ofrecer una explicación alternativa.

No es suficiente decir que no es así, hay que explicar cómo es. Dada la incertidumbre en la que vivimos, los mensajes claros y consistentes sobre lo que las personas deberían y no deberían hacer son cruciales. No hay que buscar la complejidad, sino la claridad y la credibilidad. Además, tenemos evidencias de que si los comportamientos de prevención se presentan como beneficiosos también para los demás, se obtiene mejor adhesión. Al fin y al cabo, (casi) todos estamos dispuestos a hacer algo para que los demás no sufran.

Según el psicólogo conductual Burrhus Skinner, los comportamientos pueden ser inducidos y, sobre todo, ‘reforzados’ mediante estrategias apropiadas. Skinner creía que el comportamiento es predecible y controlable, y que este hecho debería ser la base de la sociedad del futuro, gobernada con la ‘ingeniería de comportamiento’. Esta visión tan determinista y ‘tecnicista’ triunfa también en muchos pensadores y futurólogos contemporáneos.

En el célebre ‘Homo Deus: breve historia del mañana’, el historiador y antropólogo Yuval Noah Harari afirma que «el libre albedrío solo existe en las fábulas que inventamos como seres humanos». Nuestra creencia de ser libres no sería más que una confabulación, en realidad sólo somos conjuntos de neuronas que actúan de acuerdo con las leyes de la evolución, que a su vez son reducibles a cálculos. Es la puerta de entrada a la algoritmización del ser humano.

Por suerte, la metáfora de la mente como software, a pesar de contar con ilustres seguidores entre personajes de Silicon Valley como Elon Musk, ha sido rechazada por los neurocientíficos, quienes enfatizan que limitar el estudio de la mente al cerebro, significa separarla del cuerpo y de su entorno natural y social, comprometiendo la efectividad de nuestros modelos. La mente humana no es reducible a un algoritmo.

Por el contrario, entre neurocientíficos y filósofos que se ocupan de la conciencia, muchos consideran que la mente consciente, aunque producida por procesos biológicos, tiene un poder causal que no puede reducirse al de sus partes. La condición humana natural es la incertidumbre y no hay libertad sin incertidumbre; y es allí donde entra en juego el libre albedrío que nos permite cambiar de opinión y comportamiento. Lo que sería un mal funcionamiento para las máquinas es la condición necesaria para que nuestra especie prospere.