Artículos Pensamiento crítico

La psicología de la desinformación: por qué somos vulnerables

Print Friendly, PDF & Email

por Tommy Shane

¿Cómo nuestra psicología nos hace más vulnerables a la desinformación? Explicamos los conceptos clave en la primera de una serie de tres partes.

La psicología de la información errada (los atajos mentales, las confusiones y las ilusiones que nos animan a creer cosas que no son ciertas) pueden decirnos mucho sobre cómo prevenir sus efectos dañinos. Nuestra psicología es lo que afecta si las correcciones funcionan, lo que deberíamos enseñar en los cursos de alfabetización mediática y por qué somos vulnerables a la información errónea en primer lugar. También es una visión fascinante del cerebro humano.

Aunque los conceptos psicológicos se originan en la academia, muchos se han introducido en el lenguaje cotidiano. La disonancia cognitiva, descrita por primera vez en 1957, es una; el sesgo de confirmación es otro. Y esto es parte del problema. Así como tenemos epidemiólogos de sillón, podemos convertirnos fácilmente en científicos cognitivos de sillón, y la caracterización errónea de estos conceptos puede crear nuevas formas de desinformación.

Si los reporteros, verificadores de hechos, investigadores, tecnólogos e influencers que trabajan con información errónea (que, seamos sinceros, son casi todos) no entienden estas distinciones, no se trata simplemente de confundir un término académico oscuro. Corre el riesgo de convertirse en parte del problema.

Enumeramos los principales conceptos psicológicos que se relacionan con la desinformación, su corrección y prevención. Están pensados ​​como un punto de partida en lugar de la última palabra.

Avaricia cognitiva

La característica psicológica que nos hace más vulnerables a la desinformación es que somos ‘avaros cognitivos’. Preferimos utilizar formas más sencillas y fáciles de resolver problemas que las que requieren más reflexión y esfuerzo. Hemos evolucionado para utilizar el menor esfuerzo mental posible.

Esto es parte de lo que hace que nuestro cerebro sea tan eficiente: no querrás pensar mucho en cada cosa. Pero también significa que no pensamos lo suficiente en las cosas cuando lo necesitamos, por ejemplo, cuando pensamos en si algo que vemos en línea es cierto.

Teoría del proceso dual

La teoría del proceso dual es la idea de que tenemos dos formas básicas de pensar: Sistema 1, un proceso automático que requiere poco esfuerzo; y el Sistema 2, un proceso analítico que requiere más esfuerzo. Debido a que somos avaros cognitivos, generalmente usaremos el pensamiento del Sistema 1 (el más fácil) cuando pensamos que podemos salirse con la nuestra.

El procesamiento automático crea el riesgo de desinformación por dos razones. Primero, cuanto más fácil es procesar algo, más probabilidades tenemos de pensar que es verdad, por lo que los juicios rápidos y fáciles a menudo se sienten correctos incluso cuando no lo son. En segundo lugar, su eficiencia puede perder detalles, a veces cruciales. Por ejemplo, puede recordar algo que leyó en Internet, pero olvide que fue desacreditado.

Heurísticas

Las heurísticas son indicadores que usamos para hacer juicios rápidos. Usamos heurística porque es más fácil que realizar análisis complejos, especialmente en Internet, donde hay mucha información.

El problema con la heurística es que a menudo conducen a conclusiones incorrectas. Por ejemplo, puede confiar en una ‘heurística de respaldo social’, que alguien en quien confía haya respaldado (p. Ej., Retuiteado) una publicación en las redes sociales, para juzgar qué tan confiable es. Pero por mucho que confíe en esa persona, no es un indicador completamente confiable y podría llevarlo a creer algo que no es cierto.

Como explica nuestra cofundadora y directora estadounidense Claire Wardle en nuestra Guía esencial para comprender el trastorno de la información, “En las redes sociales, faltan las heurísticas (los atajos mentales que usamos para darle sentido al mundo). A diferencia de lo que ocurre en un periódico en el que comprendes qué sección del periódico estás mirando y ves señales visuales que muestran que estás en la sección de opinión o en la sección de dibujos animados, este no es el caso en línea “.

Disonancia cognitiva

La disonancia cognitiva es la experiencia negativa que sigue a un encuentro con información que contradice sus creencias. Esto puede llevar a las personas a rechazar información creíble para aliviar la disonancia.

Sesgo de confirmación

El sesgo de confirmación es la tendencia a creer en la información que confirma sus creencias existentes y a rechazar la información que las contradice. Los actores de la desinformación pueden explotar esta tendencia para amplificar las creencias existentes.

El sesgo de confirmación es solo uno de una larga lista de sesgos cognitivos.

Razonamiento motivado

El razonamiento motivado es cuando las personas usan sus habilidades de razonamiento para creer lo que quieren creer, en lugar de determinar la verdad. El punto crucial aquí es la idea de que las facultades racionales de las personas, en lugar del pensamiento perezoso o irracional, pueden causar creencias mal informadas.

El razonamiento motivado es un punto clave del debate actual en la psicología de la información errada. En un artículo de 2019 para The New York Times, David Rand y Gordon Pennycook, dos científicos cognitivos de la Universidad de Virginia y el MIT, respectivamente, se opusieron firmemente. Su afirmación es que las personas simplemente no son lo suficientemente analíticas cuando encuentran información. Como ellos lo expresan:

“Un grupo afirma que nuestra capacidad de razonar está secuestrada por nuestras convicciones partidistas: es decir, somos propensos a la racionalización. El otro grupo, al que pertenecemos los dos, afirma que el problema es que a menudo no ejercemos nuestras facultades críticas: es decir, somos mentalmente perezosos”.

Rand y Pennycook continúan construyendo un sólido cuerpo de evidencia de que el pensamiento perezoso, no el razonamiento motivado, es el factor clave en nuestra vulnerabilidad psicológica a la desinformación.

Ignorancia pluralista

La ignorancia pluralista es una falta de comprensión sobre lo que piensan y creen los demás en la sociedad. Esto puede hacer que la gente piense incorrectamente que otros son mayoría cuando se trata de una opinión política, cuando en realidad es una opinión de muy pocas personas. Esto puede empeorar con refutaciones de información errónea (por ejemplo, teorías de conspiración), ya que pueden hacer que esas opiniones parezcan más populares de lo que realmente son.

Una variante de esto es el efecto del falso consenso: cuando las personas sobreestiman cuántas otras personas comparten sus puntos de vista.

Efecto en tercera persona

El efecto de tercera persona describe la forma en que las personas tienden a asumir que la información errónea afecta a otras personas más que a ellos mismos.

Nicoleta Corbu, profesora de comunicaciones en la Universidad Nacional de Estudios Políticos y Administración Pública en Rumania, descubrió que existe un efecto significativo en tercera persona en la capacidad percibida de las personas para detectar información errónea: las personas se califican a sí mismas como mejores en la identificación de información errónea que otras. Esto significa que las personas pueden subestimar su vulnerabilidad y no tomar las medidas adecuadas.

Fluidez

La fluidez se refiere a la facilidad con la que las personas procesan la información. Es más probable que las personas crean que algo es cierto si pueden procesarlo con fluidez: se siente bien y, por lo tanto, parece cierto.

Por eso la repetición es tan poderosa: si la ha escuchado antes, la procesa más fácilmente y, por lo tanto, es más probable que la crea. Repítelo varias veces y aumentarás el efecto. Entonces, incluso si ha escuchado algo como una desacreditación, la mera repetición de la afirmación original puede hacerla más familiar, fluida y creíble.

También significa que la información fácil de entender es más creíble, porque se procesa con mayor fluidez. Como explican Stephan Lewandowsky y sus colegas:

“Por ejemplo, es más probable que la misma afirmación se considere verdadera cuando se imprime en un contraste de color alto en lugar de bajo … se presenta en forma de rima en lugar de sin rima … o se pronuncia con un acento familiar en lugar de desconocido … Además, es menos probable que las preguntas engañosas se reconozcan como tales cuando se imprimen en una fuente fácil de leer”.

Receptividad a las tonterias

La receptividad de las tonterías se trata de cuán receptivo eres a la información que tiene poco interés en la verdad; un cliché sin sentido, por ejemplo. La mierda es diferente de una mentira, que contradice intencionalmente la verdad.

Pennycook y Rand utilizan el concepto de receptividad de mierda para examinar la susceptibilidad a los titulares de noticias falsas. Descubrieron que cuanto más probable es que aceptemos una oración pseudo-profunda (es decir, tonterías) como “El significado oculto transforma una belleza abstracta sin igual”, más susceptibles somos a los titulares de noticias falsos.

Esto proporciona evidencia para la teoría más amplia de Pennycook y Rand de que la susceptibilidad a las noticias falsas proviene de un pensamiento analítico insuficiente, en lugar de un razonamiento motivado. En otras palabras, estamos demasiado atascados en el pensamiento automático del Sistema 1 y no lo suficiente en el pensamiento analítico del Sistema 2.

Via

A %d blogueros les gusta esto: