Información

¿Cuál es el nombre técnico de este sesgo cognitivo?

¿Cuál es el nombre técnico de este sesgo cognitivo?

Estoy bastante seguro de que he visto este sesgo cognitivo descrito en la literatura, pero no puedo encontrar su nombre oficial, así que lo llamaré provisionalmente "el sesgo del buscador de libros usados", según la siguiente viñeta.

Digamos que está hojeando una librería de segunda mano, sin buscar nada en particular, cuando ve, escondido en algún rincón, casi escondido, una copia de algún libro "clásico". El libro está en buen estado y el precio es muy atractivo. ¡Qué hallazgo! Tienes que tenerlo, no importa la vocecita que te recuerda que tu lista de lectura ya está abarrotada, al igual que tus estanterías, y que no tendrás tiempo para leer este libro en un futuro previsible ...

El sesgo cognitivo al que me refiero es la intensa compulsión de adquirir la hallazgo fortuito, aunque uno no lo necesite, y es casi seguro que no hará nada con él.

Como alguien que solía frecuentar las librerías usadas, estoy muy familiarizado con este sesgo cognitivo. Me llevó a gastar mucho dinero y adquirir más libros de los que podía almacenar, y mucho menos leer. (Finalmente, me di cuenta).

Eso sí, la gran mayoría de los libros que encontré de esta manera no eran realmente difíciles de encontrar; Podría pasar fácilmente por otros medios (por ejemplo, la biblioteca) si Realmente necesité leerlos alguna vez. Además, si hubiera pagado el precio completo por copias nuevas de los pocos libros que finalmente leí, me habría ahorrado mucho dinero.

El elemento principal del sesgo, me parece, es el fuerte sentimiento de buena fortuna uno se siente en tal situación. Por el contrario, uno siente firmemente que sería un completo tonto no aprovechar un evento tan afortunado.


No estoy del todo seguro acerca de los nombres científicos adecuados, pero creo que su problema gira en torno a comprar cosas porque son

  • barato;
  • difícil de encontrar.

La primera es una razón notoria para comprar cosas; la compra impulsiva de bienes, simplemente porque se anuncian como '¡compre dos, pague uno!'. De hecho, esta caza de gangas puede volverse patológica y adictivo (fuente: Psychology Today).

La compra simplemente porque un producto es difícil de encontrar es un poco más difícil de enmarcar en comportamientos, pero de hecho es un fenómeno común que la gente tiende a comprar cosas porque son exclusivas (n. ° 55 aquí). Además, tal vez simplemente desee comprarlo solo porque pueden (# 26 aquí).

Además, comprar cosas en general te hace sentir bien, ya que activa el circuito de recompensa en nuestro cerebro. Como consecuencia, comprar cosas puede convertirse en una adicción (adictos a las compras).

En realidad, existe un trastorno llamado trastorno de compra compulsiva. Se incluyó en el DSM-III, pero no en los DSM posteriores. No está estrictamente definido, pero se ha asociado con trastornos adictivos, trastorno obsesivo compulsivo o trastornos del estado de ánimo (Black, 2007).

Referencia
- Black, World Psychiatry (2007); 6(1): 14-18


No estoy seguro de que lo que describe sea un sesgo cognitivo en sí mismo, pero sospecho que la heurística de escasez puede ser parte de la racionalización del comprador. (Consulte el artículo de wikipedia para obtener referencias académicas).


2. Sesgo de actualidad

Definición

Nuestro cerebro, naturalmente, le da más peso a la experiencia reciente.

Ejemplo de un comerciante & # 8217s

En el mercado, este sesgo cognitivo puede manifestarse en un aprendizaje excesivo de las pérdidas recientes. Estamos más afectados por las pérdidas recientes. Por lo tanto, al tratar de mejorar nuestros resultados comerciales, evitamos operaciones que nos recuerden nuestras pérdidas recientes.

Por ejemplo, perdió dinero en tres operaciones de retroceso recientes en una tendencia saludable. Por lo tanto, concluyó que el comercio de retroceso en una tendencia fuerte es una estrategia perdedora. Luego, cambió a rupturas de rango comercial.

Debido a su experiencia reciente, pasó por alto que la mayoría de sus ganancias pasadas provenían de operaciones de retroceso. Al recurrir a las rupturas del rango de negociación, podría estar renunciando a una ventaja valiosa en su estilo de negociación.

Lección y práctica de amplificación

No aprenda de la experiencia reciente. Aprenda de sus resultados comerciales durante un período más prolongado.

Revisar sus operaciones y aprender de ellas es fundamental. Sin embargo, en la práctica, no deberíamos examinarlos y sacar conclusiones con demasiada frecuencia. Debemos asegurarnos de tener una muestra más amplia de operaciones durante un período más largo, antes de llegar a conclusiones útiles.


4. Sesgo de apoyo a la elección

Las personas evalúan sus propias elecciones anteriores como mejores que el promedio.

No estoy argumentando que usted debería "incitar" a sus destinatarios a tomar decisiones que lo beneficien, porque ellos serán "engañados" y les harán pensar que fue una buena decisión.

En cambio, I & rsquom argumenta que si puede obtener pequeños compromisos de las personas, será más probable que continúen trabajando con usted en proyectos más grandes o más exigentes (que aún deberían ser mutuamente beneficiosos).


Sesgos: una introducción

No es un secreto. Sin embargo, por alguna razón, rara vez surge en una conversación y pocas personas preguntan qué debemos hacer al respecto. Es un patrón, oculto invisible detrás de todos nuestros triunfos y fracasos, invisible detrás de nuestros ojos. ¿Qué es?

Imagínese metiendo la mano en una urna que contiene setenta bolas blancas y treinta rojas, y sacando diez bolas misteriosas. Quizás tres de las diez bolas serán rojas, y adivinará correctamente cuántas bolas rojas en total había en la urna. O tal vez se te ocurra agarrar cuatro bolas rojas, o algún otro número. Entonces probablemente obtendrá el número total incorrecto.

Este error aleatorio es el costo de un conocimiento incompleto y, a medida que avanzan los errores, no es tan malo. Tus estimaciones no serán incorrectas de mediay cuanto más aprenda, menor tenderá a ser su error.

Por otro lado, suponga que las bolas blancas son más pesadas y se hunden hasta el fondo de la urna. Entonces su muestra puede no ser representativa en una dirección consistente.

Ese tipo de error se llama "sesgo estadístico". Cuando su método de aprender sobre el mundo está sesgado, es posible que aprender más no ayude. Adquirir más datos puede incluso empeorar una predicción sesgada.

Si está acostumbrado a tener en alta estima el conocimiento y la investigación, esta es una perspectiva aterradora. Si queremos estar seguros de que aprender más nos ayudará, en lugar de hacernos peor de lo que estábamos antes, debemos descubrir y corregir los sesgos en nuestros datos.

La idea de sesgo cognitivo en psicología funciona de manera análoga. Un sesgo cognitivo es un error sistemático en como pensamos, a diferencia de un error aleatorio o uno que es simplemente causado por nuestra ignorancia. Mientras que el sesgo estadístico sesga una muestra para que se parezca menos a una población más grande, los sesgos cognitivos sesgan nuestra creencias de modo que representen con menos precisión los hechos y sesguen nuestra Toma de decisiones para que logre nuestros objetivos de manera menos confiable.

Tal vez tenga un sesgo de optimismo y descubra que las bolas rojas se pueden usar para tratar una rara enfermedad tropical que afecta a su hermano. Entonces puede sobrestimar cuántas bolas rojas contiene la urna porque deseo las bolas eran en su mayoría rojas. Aquí, su muestra no es lo que está sesgado. Estás lo que está sesgado.

Ahora que estamos hablando de sesgado genteSin embargo, debemos tener cuidado. Por lo general, cuando llamamos a individuos o grupos "sesgados", lo hacemos para castigarlos por ser injustos o parciales. Cognitivo el sesgo es una bestia completamente diferente. Los prejuicios cognitivos son una parte básica de cómo piensan los humanos en general, no el tipo de defecto que podríamos atribuir a una educación terrible oa una personalidad podrida. 1

Un sesgo cognitivo es una forma sistemática en la que sus patrones innatos de pensamiento no alcanzan la verdad (o algún otro objetivo alcanzable, como la felicidad). Al igual que los sesgos estadísticos, los sesgos cognitivos pueden distorsionar nuestra visión de la realidad, no siempre pueden solucionarse simplemente recopilando más datos y sus efectos pueden acumularse con el tiempo. Pero cuando el instrumento de medición mal calibrado que está tratando de arreglar es usted, la depilación es un desafío único.

Aún así, este es un lugar obvio para comenzar. Porque si no puedes confiar en tu cerebro, ¿cómo puedes confiar en otra cosa?

Sería útil tener un nombre para este proyecto de superar el sesgo cognitivo y de superar todas las especies de errores en los que nuestras mentes pueden llegar a minarse a sí mismas.

Podríamos llamar a este proyecto como queramos. Por el momento, sin embargo, supongo que "racionalidad" es un nombre tan bueno como cualquier otro.

Sentimientos racionales

En una película de Hollywood, ser "racional" generalmente significa que eres un estoico severo e hiperintelectual. Piense en Spock de Star Trek, quien "racionalmente" reprime sus emociones, "racionalmente" se niega a confiar en intuiciones o impulsos, y se queda atónito y es superado fácilmente al encontrarse con un oponente errático o "irracional". 2

Existe una noción de "racionalidad" completamente diferente estudiada por matemáticos, psicólogos y científicos sociales. Aproximadamente, es la idea de haciendo lo mejor que puede con lo que tiene. Una persona racional, sin importar cuán fuera de su profundidad esté, forma las mejores creencias que puede con la evidencia que tiene. Una persona racional, sin importar cuán terrible sea la situación en la que se encuentre, toma las mejores decisiones que puede para mejorar sus probabilidades de éxito.

La racionalidad del mundo real no se trata de ignorar tus emociones e intuiciones. Para un ser humano, la racionalidad a menudo significa volverse más consciente de sus sentimientos, por lo que puede tenerlos en cuenta en sus decisiones.

La racionalidad puede consistir incluso en saber cuándo no pensar demasiado en las cosas. Al seleccionar un póster para poner en su pared, o al predecir el resultado de un juego de baloncesto, se ha encontrado que los sujetos experimentales se desempeñan peor si analizaban cuidadosamente sus razones. 3, 4 Hay algunos problemas en los que la deliberación consciente nos sirve mejor y otros en los que los juicios rápidos nos sirven mejor.

Los psicólogos que trabajan en teorías de proceso dual distinguen los procesos del "Sistema 1" del cerebro (cognición rápida, implícita, asociativa, automática) de sus procesos del "Sistema 2" (cognición lenta, explícita, intelectual, controlada). 5 El estereotipo Es que los racionalistas se basen completamente en el Sistema 2, sin tener en cuenta sus sentimientos e impulsos. Si se mira más allá del estereotipo, alguien que en realidad está siendo racional, en realidad logrando sus objetivos, en realidad mitigando el daño de sus sesgos cognitivos, dependería en gran medida de los hábitos e intuiciones del Sistema-1, donde es confiable.

Desafortunadamente, el Sistema 1 por sí solo parece ser un terrible guía sobre "¿Cuándo debo confiar en el Sistema 1?" Nuestras intuiciones inexpertas no nos dicen cuándo debemos dejar de confiar en ellas. Ser parcial y ser imparcial sentir lo mismo. 6

Por otro lado, como señala el economista conductual Dan Ariely: estamos predeciblemente irracional. Nos equivocamos de la misma manera, una y otra vez, sistemáticamente y con timidez.

Si no podemos usar nuestro instinto para descubrir cuándo estamos sucumbiendo a un sesgo cognitivo, es posible que aún podamos usar las ciencias de la mente.

Las muchas caras del sesgo

Para resolver problemas, nuestros cerebros han evolucionado para emplear heurísticas cognitivas, atajos aproximados que obtienen la respuesta correcta a menudo, pero no todo el tiempo. Los sesgos cognitivos surgen cuando las esquinas cortadas por estas heurísticas dan como resultado un error relativamente consistente y discreto.

La heurística de la representatividad, por ejemplo, es nuestra tendencia a evaluar los fenómenos por lo representativos que parecen de varias categorías. Esto puede llevar a sesgos como el falacia de conjunción. Tversky y Kahneman descubrieron que los sujetos experimentales consideraban menos probable que un tenista fuerte "perdiera el primer set" que "perder el primer set pero ganar el partido". 7 Hacer una reaparición parece más típico de un jugador fuerte, por lo que sobrestimamos la probabilidad de esta narrativa que suena complicada pero sensata en comparación con la probabilidad de un escenario estrictamente más simple.

La heurística de representatividad también puede contribuir a negligencia de la tasa base, donde basamos nuestros juicios en cuán intuitivamente “normal” es una combinación de atributos, descuidando cuán común es cada atributo en la población en general. 8 ¿Es más probable que Steve sea un bibliotecario tímido o que sea un vendedor tímido? La mayoría de las personas responden a este tipo de preguntas pensando en si "tímido" coincide con sus estereotipos de esas profesiones. No toman en consideración cuánto más comunes son los vendedores que los bibliotecarios, setenta y cinco veces más común en los Estados Unidos. 9

Otros ejemplos de sesgos incluyen negligencia de duración (evaluando experiencias sin importar cuánto tiempo duraron), el falacia del costo hundido (sentirse comprometido con cosas en las que ha gastado recursos en el pasado, cuando debería reducir sus pérdidas y seguir adelante), y sesgo de confirmación (dando más peso a la evidencia que confirma lo que ya creemos). 10, 11

Sin embargo, conocer un sesgo rara vez es suficiente para protegerte de él. En un estudio de ceguera al sesgo, los sujetos experimentales predijeron que si supieran que una pintura es obra de un artista famoso, les resultará más difícil evaluar de manera neutral la calidad de la pintura. Y, de hecho, los sujetos a los que se les dijo el autor de una pintura y se les pidió que evaluaran su calidad exhibieron el mismo sesgo que habían predicho, en relación con un grupo de control. Cuando se le preguntó despuésSin embargo, los mismos sujetos afirmaron que sus evaluaciones de las pinturas habían sido objetivas y no se habían visto afectadas por el sesgo, ¡en todos los grupos! 12, 13

Somos especialmente reacios a pensar que nuestras opiniones son inexactas en comparación con las opiniones de los demás. Incluso cuando identificamos correctamente los prejuicios de los demás, tenemos una especial sesgo punto ciego cuando se trata de nuestros propios defectos. 14 No detectamos ningún "pensamiento sesgado" cuando hacemos introspección, por lo que llegamos a la conclusión de que debemos ser más objetivos que los demás. 15

Estudiar los sesgos puede, de hecho, hacerte más vulnerable al exceso de confianza y al sesgo de confirmación, a medida que llega a ver la influencia de los sesgos cognitivos a su alrededor, en todos menos en usted mismo. Y el punto ciego del sesgo, a diferencia de muchos sesgos, es especialmente severo entre las personas que están especialmente inteligente, reflexivo y de mente abierta. 16 , 17

Esto es motivo de preocupación.

Todavía. parece que deberíamos poder hacerlo mejor. Se sabe que podemos reducir la negligencia de la tasa base pensando en las probabilidades como frecuencias de objetos o eventos. Podemos minimizar el descuido de la duración prestando más atención a la duración y representándola gráficamente. 18 Las personas varían en la intensidad con que exhiben diferentes prejuicios, por lo que debería haber una serie de formas aún desconocidas de influir en cuán sesgados somos.

Sin embargo, si queremos mejorar, no es suficiente que analicemos detenidamente las listas de sesgos cognitivos. El enfoque para el debiasing en Racionalidad: de la IA a los zombis es comunicar una comprensión sistemática de por qué funciona el buen razonamiento y de cómo el cerebro no lo alcanza. En la medida en que este volumen haga su trabajo, su enfoque se puede comparar con el descrito en Serfas, quien señala que "años de experiencia laboral relacionada financieramente" no afectaron la susceptibilidad de las personas al sesgo de costos hundidos, mientras que "el número de los cursos a los que asistí ”ayudaron.

Como consecuencia, podría ser necesario distinguir entre experiencia y pericia, con pericia significando "el desarrollo de un principio esquemático que involucra la comprensión conceptual del problema", que a su vez permite al tomador de decisiones reconocer sesgos particulares. Sin embargo, utilizar la experiencia como contramedida requiere más que estar familiarizado con el contenido de la situación o ser un experto en un dominio en particular. Requiere que uno comprenda completamente la justificación subyacente del sesgo respectivo, sea capaz de detectarlo en el entorno particular y también tenga a mano las herramientas adecuadas para contrarrestar el sesgo. 19

El objetivo de este libro es sentar las bases para crear "experiencia" en la racionalidad. Eso significa adquirir una comprensión profunda de la estructura de un problema muy general: el sesgo humano, el autoengaño y los mil caminos por los que el pensamiento sofisticado puede vencerse a sí mismo.

Unas palabras sobre este texto

Racionalidad: de la IA a los zombis comenzó su vida como una serie de ensayos de Eliezer Yudkowsky, publicados entre 2006 y 2009 en el blog de economía Superar el sesgo y su blog comunitario derivado Menos mal. Trabajé con Yudkowsky durante el último año en el Machine Intelligence Research Institute (MIRI), una organización sin fines de lucro que fundó en 2000 para estudiar los requisitos teóricos de la inteligencia artificial (IA) más inteligente que la humana.

Leer las publicaciones de su blog me interesó en su trabajo. Me impresionó con su capacidad para comunicar de manera concisa ideas que me había llevado años de estudio de filosofía analítica internalizar. Al tratar de reconciliar el espíritu anárquico y escéptico de la ciencia con un enfoque riguroso y sistemático de la investigación, Yudkowsky intenta no solo refutar sino también comprender los muchos pasos en falso y los callejones sin salida que puede producir la mala filosofía (y la mala falta de filosofía). Mi esperanza al ayudar a organizar estos ensayos en un libro es que sea más fácil sumergirse en ellos y apreciarlos como un todo coherente.

La cartilla de racionalidad resultante es con frecuencia personal e irreverente, extraída, por ejemplo, de las experiencias de Yudkowsky con su madre judía ortodoxa (psiquiatra) y su padre (físico), y de conversaciones en salas de chat y listas de correo. Lectores que estén familiarizados con Yudkowsky de Harry Potter y los métodos de la racionalidad, su despegue orientado a la ciencia de J.K. Rowling Harry Potter libros, reconocerán la misma iconoclastia irreverente y muchos de los mismos conceptos centrales.

Estilísticamente, los ensayos de este libro abarcan desde un "libro de texto animado" hasta un "compendio de viñetas reflexivas" y un "manifiesto desenfrenado", y el contenido es correspondientemente variado. Racionalidad: de la IA a los zombis recopila cientos de publicaciones del blog de Yudkowsky en veintiséis "secuencias", series en forma de capítulo de publicaciones vinculadas temáticamente. Las secuencias a su vez se agrupan en seis libros, que cubren los siguientes temas:

Libro IMapa y territorio. ¿Qué es una creencia y qué hace que algunas creencias funcionen mejor que otras? Estas cuatro secuencias explican la Bayesiano nociones de racionalidad, creencia y evidencia. Un tema corriente: las cosas que llamamos "explicaciones" o "teorías" no siempre funcionan como mapas para navegar por el mundo. Como resultado, corremos el riesgo de mezclar nuestros mapas mentales con los otros objetos de nuestra caja de herramientas.

Libro IICómo cambiar realmente de opinión. Esta cosa de la verdad parece bastante útil. Entonces, ¿por qué seguimos sacando conclusiones apresuradas, esforzándonos y recapitulando los mismos errores? Porque somos tan malo en la adquisición de creencias precisas, y ¿cómo podemos mejorar? Estas siete secuencias discuten el razonamiento motivado y el sesgo de confirmación, con un enfoque especial en especies de autoengaño difíciles de detectar y la trampa de "usar argumentos como soldados".

Libro IIILa máquina en el fantasma. Por qué no tengo evolucionamos para ser más racionales? Incluso teniendo en cuenta las limitaciones de recursos, parece que podríamos obtener mucho más beneficio epistémico por nuestro dinero probatorio. Para tener una imagen realista de cómo y por qué nuestras mentes ejecutan sus funciones biológicas, necesitamos abrir el capó y ver cómo funciona la evolución y cómo funciona nuestro cerebro, con más precisión. Estas tres secuencias ilustran cómo incluso los filósofos y los científicos pueden descarriarse cuando se basan en explicaciones evolutivas o psicológicas intuitivas y no técnicas. Al ubicar nuestras mentes dentro de un espacio más grande de sistemas dirigidos a objetivos, podemos identificar algunas de las peculiaridades del razonamiento humano y apreciar cómo tales sistemas pueden "perder su propósito".

Libro IVMera realidad. ¿En qué tipo de mundo vivimos? ¿Cuál es nuestro lugar en ese mundo? Basándose en los ejemplos de las secuencias anteriores sobre cómo funcionan los modelos evolutivos y cognitivos, estas seis secuencias exploran la naturaleza de la mente y el carácter de la ley física. Además de aplicar y generalizar lecciones pasadas sobre los misterios científicos y la parsimonia, estos ensayos plantean nuevas preguntas sobre el papel que debe desempeñar la ciencia en la racionalidad individual.

Libro VMera bondad. Que hace que algo valioso¿Moral, estética o prudencialmente? Estas tres secuencias preguntan cómo podemos justificar, revisar y naturalizar nuestros valores y deseos. El objetivo será encontrar una manera de comprender nuestros objetivos sin comprometer nuestros esfuerzos para alcanzarlos realmente. En este caso, el mayor desafío es saber cuándo confiar en los impulsos desordenados y complicados de cada caso sobre lo que está bien y lo que está mal, y cuándo reemplazarlos con principios simples y sin excepciones.

Libro VIHaciéndose más fuerte. ¿Cómo pueden los individuos y las comunidades poner en práctica todo esto? Estas tres secuencias comienzan con un relato autobiográfico de los mayores errores filosóficos de Yudkowsky, con consejos sobre cómo cree que otros podrían hacerlo mejor. El libro se cierra con recomendaciones para desarrollar planes de estudio de racionalidad aplicada basados ​​en la evidencia y para formar grupos e instituciones que apoyen a los estudiantes, educadores, investigadores y amigos interesados.

Las secuencias también se complementan con "interludios", ensayos tomados del sitio web personal de Yudkowsky, http://www.yudkowsky.net. Estos se relacionan con las secuencias de varias maneras, por ejemplo, Las doce virtudes de la racionalidad resume poéticamente muchas de las lecciones de Racionalidad: de la IA a los zombis, y a menudo se cita en otros ensayos.

Haciendo clic en el asterisco verde () al final de un ensayo lo llevará a la versión original del mismo en Menos mal (donde puede dejar comentarios) o en el sitio web de Yudkowsky.

Mapa y territorio

Este, el primer libro, comienza con una secuencia sobre el sesgo cognitivo: "Previsiblemente incorrecto". El resto del libro no se limitará a este tema, los malos hábitos y las malas ideas importan, incluso cuando surgen de los contenidos de nuestra mente y no de la estructura de nuestra mente. Así, los errores evolucionados e inventados se mostrarán en secuencias posteriores, comenzando con una discusión en "Creencias falsas" sobre las formas en que las expectativas de uno pueden separarse de las creencias profesadas.

Una explicación de la irracionalidad también estaría incompleta si no proporcionara una teoría sobre cómo racionalidad funciona — o si su "teoría" sólo consistía en vagas perogrulladas, sin un mecanismo explicativo preciso. La secuencia "Notando confusión" pregunta por qué es útil basar el comportamiento de uno en expectativas "racionales" y qué se siente al hacerlo.

A continuación, “Mysterious Answers” ​​pregunta si la ciencia nos resuelve estos problemas. Los científicos basan sus modelos en experimentos repetibles, no en especulaciones o rumores. Y la ciencia tiene un historial excelente en comparación con la anécdota, la religión y ... prácticamente todo lo demás. ¿Todavía tenemos que preocuparnos por las creencias "falsas", el sesgo de confirmación, el sesgo de retrospectiva y cosas por el estilo cuando trabajamos con una comunidad de personas que quieren explicar fenómenos, no solo contar historias atractivas?

A esto le sigue The Simple Truth, una alegoría independiente sobre la naturaleza del conocimiento y la creencia.

Sin embargo, es el sesgo cognitivo el que proporciona la visión más clara y directa del material de nuestra psicología, de la forma de nuestras heurísticas y de la lógica de nuestras limitaciones. Es con prejuicios que comenzaremos.

Hay un pasaje en el Zhuangzi, un texto filosófico proto-daoísta, que dice: "La trampa para peces existe debido a los peces, una vez que lo tienes, puedes olvidarte de la trampa". 20

Los invito a explorar este libro con ese espíritu. Úselo como si fuera una trampa para peces, siempre consciente del propósito que tiene para él. Lleve consigo lo que pueda usar, siempre que siga utilizándose, descarte el resto. Y que su propósito le sirva bien.

Expresiones de gratitud

Estoy tremendamente agradecido con Nate Soares, Elizabeth Tarleton, Paul Crowley, Brienne Strohl, Adam Freese, Helen Toner y decenas de voluntarios por corregir partes de este libro.

Un agradecimiento especial y sincero a Alex Vermeer, quien dirigió este libro hasta su finalización, y Tsvi Benson-Tilsen, quien revisó todo el libro para asegurar su legibilidad y consistencia.

La idea de sesgo personal, sesgo de los medios, etc. se asemeja al sesgo estadístico en que es un error. Otras formas de generalizar la idea de "sesgo" se centran en cambio en su asociación con la no aleatoriedad. En el aprendizaje automático, por ejemplo, un inductivo El sesgo es simplemente el conjunto de suposiciones que utiliza un alumno para derivar predicciones a partir de un conjunto de datos. Aquí, el alumno está "sesgado" en el sentido de que apunta en una dirección específica, pero dado que esa dirección puede ser la verdad, no es malo que un agente tenga un sesgo inductivo. Es valioso y necesario. Esto distingue claramente el "sesgo" inductivo de los otros tipos de sesgo. & # x21a9

Una triste coincidencia: Leonard Nimoy, el actor que interpretó a Spock, falleció pocos días antes del lanzamiento de este libro. Aunque citamos a su personaje como un ejemplo clásico de la falsa "racionalidad de Hollywood", no queremos faltarle el respeto a la memoria de Nimoy. & # x21a9

Timothy D. Wilson et al., "La introspección sobre las razones puede reducir la satisfacción posterior a la elección", Boletín de personalidad y psicología social 19 (1993): 331–331. & # x21a9

Jamin Brett Halberstadt y Gary M. Levine, "Efectos del análisis de razones sobre la precisión de la predicción de juegos de baloncesto", Revista de psicología social aplicada 29, no. 3 (1999): 517–530. & # x21a9

Keith E. Stanovich y Richard F. West, "Diferencias individuales en el razonamiento: ¿Implicaciones para el debate sobre la racionalidad?" Ciencias del comportamiento y del cerebro 23, no. 5 (2000): 645–665, http://journals.cambridge.org/abstract_S0140525X00003435. & # x21a9

Timothy D. Wilson, David B. Centerbar y Nancy Brekke, "Mental Contamination and the Debiasing Problem", en Heurística y sesgos: la psicología del juicio intuitivo, ed. Thomas Gilovich, Dale Griffin y Daniel Kahneman (Cambridge University Press, 2002). & # x21a9

Amos Tversky y Daniel Kahneman, "Razonamiento extensional versus intuitivo: la falacia de la conjunción en el juicio de probabilidad", Revisión psicológica 90, no. 4 (1983): 293–315, doi: 10.1037 / 0033295X.90.4.293. & # x21a9

Richards J. Heuer, Psicología del análisis de la inteligencia (Centro de Estudios de Inteligencia, Agencia Central de Inteligencia, 1999). & # x21a9

Wayne Weiten, Psicología: Temas y variaciones, versión más breve, octava edición (Cengage Learning, 2010). & # x21a9

Raymond S. Nickerson, "Sesgo de confirmación: un fenómeno ubicuo en muchas formas", Revisión de psicología general 2, no. 2 (1998): 175. & # x21a9

Descuido de la probabilidad es otro sesgo cognitivo. En los meses y años posteriores a los ataques del 11 de septiembre, muchas personas optaron por conducir largas distancias en lugar de volar. El secuestro no fue probable, pero ahora se sentía como si estuviera sobre la mesa la mera posibilidad de secuestrar decisiones enormemente impactadas. Al confiar en el razonamiento en blanco y negro (los automóviles y los aviones son "seguros" o "inseguros", punto), la gente se pone en un peligro mucho mayor. Donde deberían haber sopesado la probabilidad de morir en un viaje en automóvil a campo traviesa con la probabilidad de morir en un vuelo a campo traviesa (la primera es cientos de veces más probable), en cambio se basaron en su sentimiento general de preocupación y ansiedad (la afectar heurística). Podemos ver el mismo patrón de comportamiento en los niños que, al escuchar argumentos a favor y en contra de la seguridad de los cinturones de seguridad, saltan de un lado a otro pensando que los cinturones de seguridad son una idea completamente buena o completamente mala, en lugar de tratar de comparar las fortalezas de las consideraciones a favor y en contra. 21 Algunos ejemplos más de sesgos son: regla de pico / final (evaluación de eventos recordados en función de su momento más intenso y cómo terminaron) fondeo (basando decisiones en información encontrada recientemente, incluso cuando es irrelevante) 22 y autoanclaje (usándose a sí mismo como modelo para las características probables de los demás, sin pensar lo suficiente en las formas en que es atípico) 23 y sesgo de status quo (favoreciendo excesivamente lo que es normal y esperado sobre lo nuevo y diferente). 24 & # x21a9

Katherine Hansen et al., "Las personas reclaman objetividad después de usar estrategias sesgadas a sabiendas", Boletín de personalidad y psicología social 40, no. 6 (2014): 691–699. & # x21a9

De manera similar, Pronin escribe sobre la ceguera por prejuicios de género:

En un estudio, los participantes consideraron a un candidato masculino y femenino para un puesto de jefe de policía y luego evaluaron si ser "astuto" o "educado formalmente" era más importante para el trabajo. El resultado fue que los participantes favorecieron los antecedentes que se les dijo que poseía el candidato masculino (por ejemplo, si se les decía que era “astuto”, lo veían como más importante). Los participantes estaban completamente ciegos a este sesgo de género, de hecho, cuanto más objetivos creían que habían sido, más sesgo mostraban en realidad. 25

En una encuesta de 76 personas que esperaban en los aeropuertos, las personas se calificaron a sí mismas como mucho menos susceptibles a los sesgos cognitivos en promedio que una persona típica en el aeropuerto. En particular, las personas se consideran inusualmente imparciales cuando el sesgo es socialmente indeseable o tiene consecuencias difíciles de notar. 27 Otros estudios encuentran que las personas con vínculos personales con un tema ven esos vínculos como una mejora de su comprensión y objetividad, pero cuando ven otra gente exhibiendo los mismos lazos, infieren que esas personas están demasiado apegadas y sesgadas. & # x21a9

Joyce Ehrlinger, Thomas Gilovich y Lee Ross, "Peering Into the Bias Blind Spot: People's Assessments of Bias in Self and Others", Boletín de personalidad y psicología social 31, no. 5 (2005): 680–692. & # x21a9

Richard F. West, Russell J. Meserve y Keith E. Stanovich, "La sofisticación cognitiva no atenúa el punto ciego del sesgo", Revista de personalidad y psicología social 103, no. 3 (2012): 506. & # x21a9

... No debe confundirse con personas que piensan que son inusualmente inteligentes, reflexivas, etc. debido al sesgo de superioridad ilusoria. & # x21a9

Michael J. Liersch y Craig R. M. McKenzie, "Descuido de la duración por números y su eliminación por gráficos", Comportamiento organizacional y procesos de decisión humana 108, no. 2 (2009): 303–314. & # x21a9

Sebastián Serfas, Sesgos cognitivos en el contexto de la inversión de capital: consideraciones teóricas y experimentos empíricos sobre violaciones de la racionalidad normativa (Springer, 2010). & # x21a9

Zhuangzi y Burton Watson, Las obras completas de Zhuangzi (Prensa de la Universidad de Columbia, 1968). & # x21a9

Cass R. Sunstein, "Probabilidad negligente: emociones, peores casos y ley", Revista de derecho de Yale (2002): 61–107. & # x21a9

Dan Ariely, Previsiblemente irracional: las fuerzas ocultas que dan forma a nuestras decisiones (HarperCollins, 2008). & # x21a9

Boaz Keysar y Dale J. Barr, "Auto-anclaje en la conversación: por qué los usuarios del lenguaje no hacen lo que" deberían "", en Heurística y sesgos: la psicología del juicio intuitivo: la psicología del juicio intuitivo, ed. Griffin Gilovich y Daniel Kahneman (Nueva York: Cambridge University Press, 2002), 150–166, doi: 10.2277 / 0521796792. & # x21a9

Scott Eidelman y Christian S. Crandall, "Bias in Favor of the Status Quo", Brújula de psicología social y de la personalidad 6, no. 3 (2012): 270–281. & # x21a9

Eric Luis Uhlmann y Geoffrey L. Cohen, "‘ Lo creo, luego es verdad ’: Efectos de la objetividad autopercibida sobre la discriminación en la contratación", Comportamiento organizacional y procesos de decisión humana 104, no. 2 (2007): 207–223. & # x21a9

Emily Pronin, "Cómo nos vemos a nosotros mismos y cómo vemos a los demás", Ciencias 320 (2008): 1177–1180, http://web.cs.ucdavis.edu/

Emily Pronin, Daniel Y. Lin y Lee Ross, "The Bias Blind Spot: Perceptions of Bias in Self versus Others", Boletín de personalidad y psicología social 28, no. 3 (2002): 369–381. & # x21a9


¿Qué son los sesgos cognitivos?

Los sesgos cognitivos son errores mentales que las personas cometen al emitir juicios sobre la vida y otras personas. Por lo general, nos ayudan a encontrar atajos que facilitan la navegación en situaciones cotidianas.

Sin embargo, a medida que las personas utilizan sus propias percepciones para crear lo que creen que es una realidad, a menudo pasan por alto cualquier pensamiento racional. Las personas tienden a usar sesgos cognitivos cuando el tiempo es un factor para tomar una decisión o tienen una capacidad limitada para procesar información. Y, sin considerar la información objetiva, el comportamiento, el juicio o las elecciones de uno pueden terminar siendo ilógicos o erróneos.

Como la mayoría de las cosas, los sesgos cognitivos tienen sus ventajas y sus inconvenientes. Por ejemplo, imagina que estás caminando solo a casa tarde una noche y escuchas un ruido detrás de ti. En lugar de detenerse a investigar, acelera el paso pensando en su seguridad. En este caso, la puntualidad es más importante que la precisión & # 8211 si el ruido fue un gato callejero crujiendo en algunas hojas o fue un perpetrador tratando de hacerte daño & # 8211 no es probable que esperes para averiguarlo.

Alternativamente, piense en un jurado que juzga a alguien que está siendo condenado por un delito. Un juicio justo requiere que el jurado ignore información irrelevante en el caso, se resista a las falacias lógicas como las apelaciones a la compasión y tenga la mente abierta al considerar todas las posibilidades para descubrir la verdad. Sin embargo, los sesgos cognitivos a menudo impiden que las personas hagan todas estas cosas. Dicho esto, debido a que los sesgos cognitivos se han estudiado ampliamente, los investigadores saben que los miembros del jurado a menudo no logran ser completamente objetivos en sus opiniones de una manera que sea tanto sistemática como predecible.

Echemos un vistazo a 15 sesgos cognitivos específicos que experimentan muchas personas. Después de leer este artículo, podrá detectar estos prejuicios en su vida cotidiana, lo que puede llevarlo a dar un paso atrás y analizar más a fondo un problema antes de llegar a una conclusión.


La psicología de la desinformación (los atajos mentales, las confusiones y las ilusiones que nos animan a creer cosas que no son ciertas) pueden decirnos mucho sobre cómo prevenir sus efectos dañinos. Nuestra psicología es lo que afecta si las correcciones funcionan, lo que debemos enseñar en los cursos de alfabetización mediática y por qué somos vulnerables a la información errónea en primer lugar. También es una visión fascinante del cerebro humano.

Aunque los conceptos psicológicos se originan en el mundo académico, muchos se han introducido en el lenguaje cotidiano. La disonancia cognitiva, descrita por primera vez en 1957, es un sesgo de confirmación es otro. Y esto es parte del problema. Así como tenemos epidemiólogos de sillón, podemos convertirnos fácilmente en científicos cognitivos de sillón, y la caracterización errónea de estos conceptos puede crear nuevas formas de desinformación.

Si los reporteros, verificadores de hechos, investigadores, tecnólogos e influyentes que trabajan con información errónea (que, seamos sinceros, son casi todos) no comprenden estas distinciones, no se trata simplemente de confundir un término académico oscuro. Corre el riesgo de convertirse en parte del problema.

Enumeramos los principales conceptos psicológicos que se relacionan con la desinformación, su corrección y prevención. Están pensados ​​como un punto de partida y no como la última palabra. Utilice la lectura adicional sugerida para profundizar más.

Avaricia cognitiva

La característica psicológica que nos hace más vulnerables a la desinformación es que somos "avaros cognitivos". Preferimos utilizar formas más sencillas y fáciles de resolver problemas que las que requieren más reflexión y esfuerzo. Hemos evolucionado para utilizar el menor esfuerzo mental posible.

Esto es parte de lo que hace que nuestro cerebro sea tan eficiente: no querrás pensar mucho en cada cosa. Pero también significa que no pensamos lo suficiente en las cosas cuando lo necesitamos, por ejemplo, cuando pensamos en si algo que vemos en línea es cierto.

Qué leer a continuación: "Cómo la Web está cambiando la forma en que confiamos" por Dario Tarborelli de la Universidad de Londres, publicado en Problemas actuales en informática y filosofía en 2008.

Teoría del proceso dual

La teoría del proceso dual es la idea de que tenemos dos formas básicas de pensar: el Sistema 1, un proceso automático que requiere poco esfuerzo y el Sistema 2, un proceso analítico que requiere más esfuerzo. Debido a que somos avaros cognitivos, generalmente usaremos el pensamiento del Sistema 1 (el más fácil) cuando pensamos que podemos salirse con la nuestra.

El procesamiento automático crea el riesgo de desinformación por dos razones.Primero, cuanto más fácil es procesar algo, más probabilidades tenemos de pensar que es verdad, por lo que los juicios rápidos y fáciles a menudo se sienten correctos incluso cuando no lo son. En segundo lugar, su eficiencia puede perder detalles, a veces cruciales. Por ejemplo, puede recordar algo que leyó en Internet, pero olvide que fue desacreditado.

Qué leer a continuación: "Una perspectiva sobre la base teórica de los modelos de proceso dual" por Gordon Pennycook, publicado en Teoría del proceso dual 2.0 en 2017.

Heurísticas

Las heurísticas son indicadores que usamos para hacer juicios rápidos. Usamos la heurística porque es más fácil que realizar análisis complejos, especialmente en Internet, donde hay mucha información.

El problema con la heurística es que a menudo conducen a conclusiones incorrectas. Por ejemplo, puede confiar en una "heurística de respaldo social", que alguien en quien confía haya respaldado (p. Ej., Retuiteado) una publicación en las redes sociales, para juzgar qué tan confiable es. Pero por mucho que confíe en esa persona, no es un indicador completamente confiable y podría llevarlo a creer algo que no es cierto.

Como explica nuestra cofundadora y directora estadounidense Claire Wardle en nuestra Guía esencial para comprender el trastorno de la información, “En las redes sociales, faltan las heurísticas (los atajos mentales que usamos para darle sentido al mundo). A diferencia de lo que ocurre con un periódico en el que se comprende la sección del periódico que se está mirando y se ven señales visuales que muestran que se encuentra en la sección de opinión o en la sección de dibujos animados, este no es el caso en línea ".

Qué leer a continuación: “Credibilidad y confianza de la información en entornos online: el uso de la heurística cognitiva” por Miriam J. Metzger y Andrew J. Flanagin, publicado en Revista de pragmática , Volumen 59 (B) en 2013.

Disonancia cognitiva

La disonancia cognitiva es la experiencia negativa que sigue a un encuentro con información que contradice sus creencias. Esto puede llevar a las personas a rechazar información creíble para aliviar la disonancia.

Qué leer a continuación: "'Noticias falsas' en la comunicación científica: emociones y estrategias para afrontar la disonancia en línea" por Monika Taddicken y Laura Wolff, publicado en Medios y comunicación, volumen 8 (1), 206–217 en 2020.

Sesgo de confirmación

El sesgo de confirmación es la tendencia a creer en la información que confirma sus creencias existentes y a rechazar la información que las contradice. Los actores de la desinformación pueden explotar esta tendencia para amplificar las creencias existentes.

El sesgo de confirmación es solo uno de una larga lista de sesgos cognitivos.

Qué leer a continuación: "Sesgo de confirmación: un fenómeno ubicuo en muchas formas" por Raymond Nickerson, publicado en Revisión de Psicología General, 2 (2), 175–220 en 1998.

Razonamiento motivado

El razonamiento motivado es cuando las personas usan sus habilidades de razonamiento para creer lo que quieren creer, en lugar de determinar la verdad. El punto crucial aquí es la idea de que las facultades racionales de las personas, en lugar del pensamiento perezoso o irracional, pueden causar creencias mal informadas.

El razonamiento motivado es un punto clave del debate actual en la psicología de la desinformación. En una pieza de 2019 para los New York Times , David Rand y Gordon Pennycook, dos científicos cognitivos de la Universidad de Virginia y el MIT, respectivamente, se opusieron firmemente. Su afirmación es que las personas simplemente no son lo suficientemente analíticas cuando encuentran información. Como ellos lo expresan:

“Un grupo afirma que nuestra capacidad de razonar está secuestrada por nuestras convicciones partidistas: es decir, somos propensos a la racionalización. El otro grupo, al que pertenecemos los dos, afirma que el problema es que a menudo no ejercemos nuestras facultades críticas: es decir, somos mentalmente perezosos ".

Rand y Pennycook continúan construyendo un sólido cuerpo de evidencia de que el pensamiento perezoso, no el razonamiento motivado, es el factor clave en nuestra vulnerabilidad psicológica a la desinformación.

Qué leer a continuación: "¿Por qué la gente se enamora de las noticias falsas?" por Gordon Pennycook y David Rand, publicado en los New York Times en 2019.

Ignorancia pluralista

La ignorancia pluralista es una falta de comprensión de lo que piensan y creen los demás en la sociedad. Esto puede hacer que la gente piense incorrectamente que otros son mayoría cuando se trata de una opinión política, cuando en realidad es una opinión de muy pocas personas. Esto puede empeorar con refutaciones de información errónea (por ejemplo, teorías de conspiración), ya que pueden hacer que esos puntos de vista parezcan más populares de lo que realmente son.

Una variante de esto es el efecto de falso consenso: cuando las personas sobreestiman cuántas otras personas comparten sus puntos de vista.

Qué leer a continuación: “The Loud Fringe: Pluralistic Ignorance and Democracy” de Stephan Lewandowsky, publicado en Dando forma al mundo del mañana en 2011.

Efecto en tercera persona

El efecto de tercera persona describe la forma en que las personas tienden a asumir que la información errónea afecta a otras personas más que a sí mismas.

Nicoleta Corbu, profesora de comunicaciones en la Universidad Nacional de Estudios Políticos y Administración Pública en Rumania, descubrió recientemente que existe un efecto significativo en tercera persona en la capacidad percibida de las personas para detectar información errónea: las personas se califican a sí mismas como mejores en la identificación de información errónea que otras. Esto significa que las personas pueden subestimar su vulnerabilidad y no tomar las medidas adecuadas.

Qué leer a continuación: “Las noticias falsas y el efecto tercera persona: están más influenciados que tú y yo” de Oana Ștefanita, Nicoleta Corbu y Raluca Buturoiu, publicado en Revista de investigación de medios, volumen. 11 3 (32), 5-23 en 2018.

Fluidez

La fluidez se refiere a la facilidad con la que las personas procesan la información. Es más probable que las personas crean que algo es cierto si pueden procesarlo con fluidez: se siente bien y, por lo tanto, parece cierto.

Por eso la repetición es tan poderosa: si la ha escuchado antes, la procesa más fácilmente y, por lo tanto, es más probable que la crea. Repítelo varias veces y aumentarás el efecto. Por lo tanto, incluso si ha escuchado algo como una desacreditación, la mera repetición de la afirmación original puede hacerla más familiar, fluida y creíble.

También significa que la información fácil de entender es más creíble, porque se procesa con mayor fluidez. Como explican Stephan Lewandowsky y sus colegas:

“Por ejemplo, es más probable que la misma afirmación se considere verdadera cuando se imprime con un contraste de color alto en lugar de con un contraste de color bajo & # 8230 presentado en forma de rima en lugar de sin rima & # 8230 que un acento desconocido & # 8230 Además, es menos probable que las preguntas engañosas se reconozcan como tales cuando se imprimen en una fuente fácil de leer ".

Qué leer a continuación: "El estado epistémico de la fluidez en el procesamiento como fuente de juicios de verdad" por Rolf Reber y Christian Unkelbach, publicado en Rev Philos Psychol. Volumen 1 (4): 563–581 en 2010.

Receptividad de mierda

La receptividad de la mierda se trata de cuán receptivo eres a la información que tiene poco interés en la verdad, un cliché sin sentido, por ejemplo. La mierda es diferente de una mentira, que contradice intencionalmente la verdad.

Pennycook y Rand utilizan el concepto de receptividad de mierda para examinar la susceptibilidad a los titulares de noticias falsas. Descubrieron que cuanto más probable es que aceptemos una oración pseudo-profunda (es decir, tonterías) como "El significado oculto transforma una belleza abstracta sin igual", más susceptibles somos a los titulares de noticias falsos.

Esto proporciona evidencia para la teoría más amplia de Pennycook y Rand de que la susceptibilidad a las noticias falsas proviene de un pensamiento analítico insuficiente, en lugar de un razonamiento motivado. En otras palabras, estamos demasiado atascados en el pensamiento automático del Sistema 1 y no lo suficiente en el pensamiento analítico del Sistema 2.

Qué leer a continuación: “¿Quién se enamora de las noticias falsas? Los roles de la receptividad, la exageración, la familiaridad y el pensamiento analítico de mierda ”por Gordon Pennycook y David Rand, publicado en Diario de personalidad en 2019.

Busque las partes dos y tres y manténgase actualizado con el trabajo de First Draft al suscribirse y seguirnos en Facebook y Twitter.


2. Saber y conquistar: 16 sesgos cognitivos específicos de la innovación clave

A continuación, debemos ser conscientes de los prejuicios específicos en el trabajo para que podamos identificarlos nosotros mismos a medida que ocurren. Aquí hay 16 sesgos cognitivos a tener en cuenta que impactan la creatividad y el proceso de innovación. Pueden originarse desde prejuicios personales hasta dinámicas de grupo y política, y más. A continuación, se muestran algunos que afectan el pensamiento divergente y creativo en los grupos de trabajo:

Póster de sesgos cognitivos

  1. Sesgo de confirmación: creemos lo que queremos creer al favorecer la información que confirma creencias o preconceptos preexistentes. Esto se traduce en buscar soluciones creativas que confirmen nuestras creencias en lugar de desafiarlas, cerrándonos a nuevas posibilidades.

“Lo opuesto al coraje no es cobardía, es conformidad. Incluso un pez muerto puede ir con la corriente

- Jim Hightower

¿Existe un nombre para este sesgo cognitivo?

Esto es algo que he visto a lo largo de los años, pero parece que se ha magnificado últimamente.

El concepto es que para algunas personas la verdad es relativa y su relatividad se basa únicamente en lo que alguien / algo más cree. Si esa persona / cosa decide que 2 + 2 = 5, es & # x27s 5. Ahora si esa persona / cosa cambia de rumbo y 2 + 2 = 4, & # x27s ahora 4 y cada argumento para que sea 5 de antemano es irrelevante.

Obviamente, esto es muy irracional, pero hay algo interesante en ello. Esto parece ser especialmente frecuente en religión, política, etc.

¿Existe un sesgo cognitivo en el que esto caería?

Editar: busque también & # x27asch effect, & # x27 en la misma wiki si acaba de leer la pestaña & quot; bases psicológicas & quot.

Creo que está en el mismo ámbito. Creo que a lo que estoy tratando de llegar es a qué hace que esa persona sea una autoridad en la mente de esa persona. Tome DJT, por ejemplo, no es una autoridad en la mayoría de los campos en los que tiene opiniones, pero la gente cree lo que dice porque viene de él y creen en él. ¿Por qué le creen sin importar lo que digan, incluso si entra en conflicto con lo que ha dicho anteriormente? Si se demuestra que está equivocado, es por los medios corruptos y no por la inconsistencia de él.

¿Deberíamos llamar a eso un sesgo cognitivo o simplemente & quot; citar movimiento & quot? Y por emoción y / o sentimiento quiero decir: la creencia instantánea y la verdad sentida de uno se mantienen independientemente de otros pensamientos, sentimientos, razones o disonancia cognitiva.

Aparte: conozco personas que creen lo que creen cuando lo creen. Y sé que no puedo depender de lo que crean en este momento para predecir su comportamiento en otro momento.

Pero, ¿no están los prejuicios emocionales irracionales basados ​​en prejuicios cognitivos?

No estoy seguro, pero algunos podrían postularse. echa un vistazo a Belief Bias

En psicología se conoce como el sesgo de los `` napoleones múltiples ''. Básicamente, la idea de que todo es relativo y que la creencia absurda de alguien es tan buena como la sensata. En psicología, ese sesgo se usa para mostrar que, con esta creencia, ninguna idea podría considerarse patológica. Entonces tenemos que entender que cada persona sí experimenta una realidad diferente, y que la realidad es subjetiva, pero que para llegar a cualquier tipo de comprensión constructiva de la realidad hay que entender más creencias patológicas y sin sentido como tales.

Si crees que esto suena irracional, todavía no te has enterado del panorama completo. No es & # x27t, simplemente aplíquelo de una manera ligeramente incorrecta.

La cosa es: Lo que nuestra conciencia aplique sobre las percepciones que recibe, definirá las emociones que surgirán.
Esto significa, a largo plazo, lo que sea que aplique su conciencia, y esto puede definirse mediante el pensamiento, se reflejará en sus emociones. Con eso, haces tu verdad relativa. No puedes cambiar el mundo exterior, pero puedes cambiar el pensamiento y por eso, puedes cambiar el eco de la percepción dentro de tu conciencia.
Esto no es, de ninguna manera, irracional, pero como son las cosas.


  1. Schouteten, J. J., Gellynck, X. y Slabbinck, H. (2019). Influencia de las etiquetas orgánicas en la percepción del sabor y el perfil emocional del consumidor # 8217s: comparación entre una prueba de ubicación central y una prueba de uso doméstico. Investigación alimentaria internacional (Ottawa, Ontario), 116, 1000–1009. https://doi.org/10.1016/j.foodres.2018.09.038.
  2. Wade, T.J., DiMaria, C. (2003). Efectos del halo de peso: diferencias individuales en el éxito percibido en la vida como una función de la mujer y la raza y el peso. Roles sexuales 48, 461–465. https://doi.org/10.1023/A:1023582629538.
  3. Thorndike, E.L. (1920). Un error constante en las valoraciones psicológicas. Revista de psicología aplicada, 4(1), 25-29. https://doi.org/10.1037/h0071663.
  4. Harvey, S. M. (1938). Una investigación preliminar de la entrevista. Revista británica de psicología. Sección general, 28(3), 263-287. https://doi.org/10.1111/j.2044-8295.1938.tb00874.
  5. Talamas, S. N., Mavor, K. I. y Perrett, D. I. (2016). Cegado por la belleza: sesgo de atractivo y percepciones precisas del rendimiento académico. Más uno, 11(2), e0148284. https://doi.org/10.1371/journal.pone.0148284.

¿Por qué creemos que entendemos el mundo más de lo que realmente lo hacemos?

¿Qué es la ilusión de profundidad explicativa? La ilusión de profundidad explicativa (IOED) describe nuestra creencia de que entendemos más.

¿Por qué la negociación es tan difícil?

La devaluación reactiva se refiere a nuestra tendencia a desacreditar las propuestas hechas por otro partido, especialmente si este partido es visto como.

¿Por qué nuestra confianza es desproporcionada con la dificultad de una tarea?

El efecto difícil-fácil ocurre cuando predecimos incorrectamente nuestra capacidad para completar tareas dependiendo de su nivel de dificultad.


Contenido

Imágenes de espejo Editar

La trampa de personalidad más común, conocida como imagen en espejo [2] es la suposición de los analistas de que las personas estudiadas piensan como los propios analistas. Una variación importante es confundir los sujetos reales con la información o las imágenes que uno tiene sobre ellos, como el tipo de manzana que uno come y las ideas y problemas que puede plantear. Plantea un dilema para el método científico en general, ya que la ciencia usa la información y la teoría para representar sistemas naturales complejos como si las construcciones teóricas pudieran controlar procesos naturales indefinibles. La incapacidad para distinguir sujetos de lo que uno está pensando en ellos también se estudia bajo el tema de la fijación funcional, estudiado primero en psicología Gestalt y en relación con el problema sujeto-objeto.

Los analistas experimentados pueden reconocer que han sido víctimas de la imagen en espejo si descubren que no están dispuestos a examinar variantes de lo que consideran más razonable a la luz de su marco de referencia personal. Los analistas menos perceptivos afectados por esta trampa pueden considerar las objeciones legítimas como un ataque personal, en lugar de mirar más allá del ego a los méritos de la pregunta. La revisión por pares (especialmente por parte de personas de diferentes antecedentes) puede ser una sabia salvaguarda. La cultura organizacional también puede crear trampas que hacen que los analistas individuales no estén dispuestos a desafiar a expertos reconocidos en el grupo.

Fijación del objetivo Editar

Otra trampa fijación de objetivo, tiene una analogía en la aviación: ocurre cuando los pilotos se concentran tanto en lanzar su artillería que pierden de vista el panorama general y chocan contra el objetivo. Esta es una tendencia humana más básica de lo que muchos creen. Los analistas pueden fijarse en una hipótesis, mirando solo evidencia que sea consistente con sus ideas preconcebidas e ignorando otros puntos de vista relevantes. El deseo de un cierre rápido es otra forma de fijación de ideas.

"La familiaridad con los métodos terroristas, los repetidos ataques contra instalaciones estadounidenses en el extranjero, combinados con los indicios de que Estados Unidos continental estaba en la parte superior de la lista de objetivos terroristas podrían habernos alertado de que estábamos en peligro de un ataque significativo. Quienes estudien fallas de inteligencia encontrarán familiar, el 11 de septiembre encaja mucho en la norma de sorpresa causada por una falla en la advertencia de inteligencia ". [3] El colapso ocurrió, en parte, porque había un intercambio de información deficiente entre los analistas (en diferentes oficinas del FBI, por ejemplo). A nivel conceptual, la inteligencia estadounidense sabía que las acciones de Al Qaeda casi siempre implican ataques múltiples y casi simultáneos, sin embargo, el FBI no asimiló información fragmentada sobre el comportamiento extraño de los estudiantes extranjeros de entrenamiento de vuelo en este contexto.

El día de los secuestros (bajo una tremenda presión de tiempo), ningún analista asoció los múltiples secuestros con la firma de múltiples ataques de al-Qaeda. El hecho de no concebir que pudiera ocurrir un ataque mayor dentro de los Estados Unidos dejó al país desprevenido. Por ejemplo, las irregularidades detectadas por la Administración Federal de Aviación y el Comando de Defensa Aérea de América del Norte no fluyeron hacia un centro donde los analistas pudieran consolidar esta información e (idealmente) cotejarla con informes anteriores de comportamiento extraño entre ciertos pilotos en entrenamiento, o la posibilidad de secuestro. aviones de pasajeros que se utilizan como armas.

Analogías inapropiadas Editar

Las analogías inapropiadas son otra trampa cognitiva. Aunque las analogías pueden ser extremadamente útiles, pueden volverse peligrosas cuando se fuerzan o cuando se basan en supuestos de equivalencia cultural o contextual. Evitar tales analogías es difícil cuando los analistas son simplemente inconscientes de las diferencias entre su propio contexto y el de los demás; se vuelve extremadamente difícil cuando no se dan cuenta de que faltan conocimientos importantes. Las dificultades asociadas con admitir la propia ignorancia son una barrera adicional para evitar tales trampas. Tal ignorancia puede tomar la forma de un estudio insuficiente: una falta de información fáctica o comprensión, una incapacidad para combinar hechos nuevos con viejos o una simple negación de hechos contradictorios.

Incluso los pensadores extremadamente creativos pueden tener dificultades para obtener apoyo dentro de su organización. A menudo, más preocupados por las apariencias, los gerentes pueden suprimir los conflictos que nacen de la creatividad a favor del status quo. Un caso especial de estereotipos es el de la estufa, en el que un grupo que ha invertido mucho en una tecnología de recolección en particular ignora información válida de otras fuentes (especialización funcional). Era una tendencia soviética valorar a HUMINT (Inteligencia humana), extraído del espionaje, sobre todas las demás fuentes, el OSINT soviético se vio obligado a salir de la organización de inteligencia estatal para desarrollar el Instituto de la Academia de Ciencias Soviética de los EE. UU. (más tarde EE. UU. y Canadá). [4]

Otro problema de especialización puede surgir como resultado de la compartimentación de la seguridad. Un equipo analítico con acceso exclusivo a una fuente puede exagerar la importancia de esa fuente. Este puede ser un problema importante con las relaciones HUMINT a largo plazo, en las que los socios desarrollan vínculos personales.

Los grupos (como los analistas individuales) también pueden rechazar la evidencia que contradice las conclusiones previas. Cuando esto sucede, a menudo es difícil evaluar si la inclusión de ciertos analistas en el grupo fue la aplicación reflexiva de "equipos rojos" deliberadamente contrarios, o la inserción politizada de ideólogos para militar por una determinada política. La monopolización del flujo de información (causada por este último) también se ha denominado "estufa", por analogía con las disciplinas de recopilación de inteligencia.

Hay muchos niveles en los que uno puede malinterpretar otra cultura, ya sea la de una organización o un país. Una trampa que se encuentra con frecuencia es la hipótesis del actor racional, que atribuye un comportamiento racional al otro lado, según una definición de racionalidad de la propia cultura.

El antropólogo social Edward T. Hall ilustró uno de esos conflictos [5] con un ejemplo del suroeste de Estados Unidos. Los conductores "anglosajones" se enfurecieron cuando la policía de tránsito "hispana" los citaría por sobrepasar el límite de velocidad a 1 mi / h, aunque un juez hispano luego desestimaría el cargo. Los conductores "hispanos", por otro lado, estaban convencidos de que los jueces "anglosajones" eran injustos porque no desestimaban los cargos debido a circunstancias atenuantes.

Ambas culturas eran racionales con respecto a la aplicación de la ley y la adjudicación de cargos de hecho, ambas creían que una de las dos tenía que ser flexible y la otra tenía que ser formal. Sin embargo, en la cultura anglosajona, la policía tenía discreción con respecto a la emisión de multas por exceso de velocidad, y se esperaba que el tribunal cumpliera con la letra de la ley. En la cultura hispana, se esperaba que la policía fuera estricta, pero los tribunales equilibrarían la situación. Hubo un malentendido fundamental que ambos lados eran etnocéntricos, y ambos asumieron incorrectamente que la otra cultura era una imagen especular de sí misma. En ese ejemplo, la negación de la racionalidad fue el resultado en ambas culturas, sin embargo, cada una actuaba racionalmente dentro de su propio conjunto de valores.

En una entrevista posterior, Hall habló ampliamente sobre la comunicación intercultural. [6] Resumió años de estudio con esta afirmación: "Pasé años tratando de averiguar cómo seleccionar personas para ir al extranjero. Este es el secreto. Tienes que saber cómo hacer un amigo. ¡Y eso es todo!"

Para hacer un amigo, uno tiene que entender la cultura del amigo potencial, la propia cultura y cómo las cosas que son racionales en uno pueden no traducirse en el otro. Las preguntas clave son:

Si podemos alejarnos de los paradigmas teóricos y centrarnos más en lo que realmente está pasando con la gente, lo estaremos haciendo bien. Tengo dos modelos que usé originalmente. Uno es el modelo lingüístico, es decir, lingüística descriptiva. Y el otro es el comportamiento animal. Ambos implican prestar mucha atención a lo que está sucediendo justo debajo de nuestras narices. No hay forma de obtener respuestas a menos que se sumerja en una situación y preste mucha atención. A partir de esto, se experimenta la validez e integridad de los patrones. En otras palabras, el patrón puede vivir y convertirse en parte de ti.

Lo principal que marca mi metodología es que realmente me uso a mí mismo como control. Me presto mucha atención a mí mismo, a mis sentimientos porque entonces tengo una base. Y no es intelectual.

Sesgo de proporcionalidad asume que las cosas pequeñas en una cultura son pequeñas en todas las culturas. En realidad, las culturas priorizan de manera diferente. En la cultura occidental (especialmente del norte de Europa), los horarios son importantes y llegar tarde puede ser una gran descortesía. Esperar el turno de uno es la norma cultural, y no hacer cola es una falla cultural. El "asesinato por honor" parece extraño en algunas culturas, pero es una parte aceptada de otras.

Sin embargo, incluso dentro de una cultura, los individuos siguen siendo individuales. Presunción de acción unitaria por parte de las organizaciones es otra trampa. En la cultura japonesa, las líneas de autoridad son muy claras, pero la persona mayor también buscará el consenso. Los negociadores estadounidenses pueden presionar para que se tomen decisiones rápidas, pero los japoneses necesitan construir un consenso primero, una vez que existe, pueden ejecutarlo más rápido que los estadounidenses.

El país (u organización) del analista no es idéntico al de su oponente. Un error es reflejar la oposición, asumiendo que actuará de la misma manera que lo haría el país y la cultura de uno bajo las mismas circunstancias. "Parecía inconcebible para los planificadores estadounidenses en 1941 que los japoneses fueran tan tontos al atacar a una potencia cuyos recursos excedían tanto a los de Japón, garantizando así virtualmente la derrota". [3]

De la misma manera, ningún analista de la protección de la fuerza de la Marina de los EE. UU. Arleigh Burke-destructor de clase como el USS Col siendo atacado con un pequeño bote suicida, muy parecido a los que los japoneses planeaban usar ampliamente contra las fuerzas de invasión durante la Segunda Guerra Mundial.

El "otro lado" hace diferentes supuestos tecnológicos Editar

El marco cultural de un oponente afecta su enfoque de la tecnología. Eso complica la tarea de los propios analistas de evaluar los recursos del oponente, cómo se pueden usar y definir los objetivos de inteligencia en consecuencia. La creación de imágenes en espejo, comprometiéndose con un conjunto de supuestos comunes en lugar de desafiar esos supuestos, ha figurado en numerosas fallas de inteligencia.

En el teatro del Pacífico de la Segunda Guerra Mundial, los japoneses parecían creer que su lenguaje era tan complejo que incluso si sus criptosistemas como la máquina de cifrado tipo B (código púrpura) estaban rotos, los forasteros no entenderían realmente el contenido. Eso no era estrictamente cierto, pero era suficiente que hubiera casos en los que incluso los destinatarios previstos no entendían claramente la intención del escritor. [ cita necesaria ]

Por otro lado, la Marina de los EE. UU. Asumió que los barcos anclados en las aguas poco profundas de Pearl Harbor estaban a salvo de un ataque con torpedos a pesar de que en 1940, en la Batalla de Taranto, los británicos habían realizado exitosos ataques con torpedos en aguas poco profundas contra buques de guerra italianos en el puerto. .

Incluso si los servicios de inteligencia hubieran atribuido a los conspiradores de los ataques del 11 de septiembre de 2001 la capacidad organizativa necesaria para secuestrar cuatro aviones de pasajeros simultáneamente, nadie habría sospechado que el arma preferida de los secuestradores sería el cortador de cajas. [3]

Del mismo modo, la Marina de los EE. UU. Subestimó el peligro de los botes suicidas en el puerto y estableció reglas de enfrentamiento que permitieron que un barco no identificado navegara hacia el USS. Col sin ser advertido o disparado. A Burke-el destructor de clase es uno de los más poderosos [ cita necesaria ] buques de guerra jamás construidos, pero las políticas de seguridad de EE. UU. no protegieron al USS atracado Col. [3]

El "otro lado" no toma decisiones como tú Editar

La creación de imágenes en espejo puede ser un problema importante para los responsables de la formulación de políticas, así como para los analistas. Durante la guerra de Vietnam, Lyndon B. Johnson y Robert S. McNamara asumieron que Ho Chi Minh reaccionaría a las situaciones de la misma manera que ellos. De manera similar, en el período previo a la Guerra del Golfo, hubo un grave malentendido, independiente de la manipulación de inteligencia por motivos políticos, de que Saddam Hussein vería la situación tanto en Kuwait como en el Departamento de Estado y la Casa Blanca.

Los países opuestos no son monolíticos, ni siquiera dentro de sus gobiernos. Puede haber competencia burocrática, que se asocia con diferentes ideas. Algunos dictadores, como Hitler y Stalin, eran conocidos por crear disensiones internas, de modo que solo el líder tenía el control total. Un tema actual, que los analistas entienden, pero que los políticos pueden no o pueden querer explotar jugando con los temores internos, es la estructura política y de poder real de Irán; no se debe equiparar el poder del presidente de Irán con el del presidente de los Estados Unidos.

Los oponentes no siempre son racionales. Pueden tener una mayor tolerancia al riesgo que el propio país. Mantener la ilusión de una amenaza de ADM parece haber sido una de las estrategias de supervivencia de Saddam Hussein. Volviendo al ejemplo iraní, una declaración aparentemente irracional del presidente iraní Mahmoud Ahmadinejad no tendría el peso de una declaración similar del líder supremo Ali Khamenei. Los analistas a veces asumen que el oponente es totalmente sabio y conoce todas las debilidades del otro lado. A pesar de ese peligro, es poco probable que los oponentes actúen de acuerdo con el mejor de los casos, pueden adoptar el enfoque del peor de los casos al que uno es más vulnerable.

El "otro lado" puede estar intentando confundirte Editar

Los analistas deben formar hipótesis, pero también deben estar preparados para reexaminarlas repetidamente a la luz de nueva información en lugar de buscar evidencia que respalde su teoría preferida. Deben recordar que el enemigo puede estar engañándolos deliberadamente con información que le parece plausible. Donald Bacon observó que "las historias de engaño más exitosas eran aparentemente tan razonables como la verdad. El engaño estratégico aliado, así como el engaño soviético en apoyo de las operaciones en Stalingrado, Kursk y la ofensiva de verano de 1944, todos explotaron las creencias preexistentes del liderazgo alemán y fueron, por lo tanto, increíblemente efectivos ". [7] Las teorías que Hitler pensaba que eran inverosímiles no fueron aceptadas. El personal de engaño occidental alternaba engaños "ambiguos" y "engañosos", el primero pretendía simplemente confundir a los analistas y el segundo para hacer que una alternativa falsa fuera especialmente probable.

De todos los ejércitos modernos, los rusos tratan el engaño estratégico (o, en su palabra, maskirovka, que va más allá de la frase en inglés para incluir engaño, seguridad operativa y ocultación) como parte integral de toda planificación. Están involucrados los niveles más altos de mando. [8]

La batalla de Kursk fue también un ejemplo de eficaz maskirovka soviética. Mientras los alemanes se preparaban para su ofensiva de Kursk, los soviéticos crearon una historia de que tenían la intención de realizar solo operaciones defensivas en Kursk. La realidad era que los soviéticos planearon una gran contraofensiva en Kursk una vez que frenaron el ataque alemán. La inteligencia alemana para el Frente Ruso asumió que los soviéticos llevarían a cabo solo ataques "locales" alrededor de Kursk para "ganar" un mejor lugar de partida para la ofensiva de invierno.

El contraataque del Frente de la Estepa sorprendió a los alemanes.

El oponente puede intentar sobrecargar las propias capacidades analíticas [9] como táctica para quienes preparan el presupuesto de inteligencia y para las agencias cuya vía rápida hacia la promoción está en la recopilación de datos. ayuda del enemigo.


¿Qué son los sesgos cognitivos?

Los sesgos cognitivos son errores mentales que las personas cometen al emitir juicios sobre la vida y otras personas. Por lo general, nos ayudan a encontrar atajos que facilitan la navegación en situaciones cotidianas.

Sin embargo, a medida que las personas utilizan sus propias percepciones para crear lo que creen que es una realidad, a menudo pasan por alto cualquier pensamiento racional. Las personas tienden a usar sesgos cognitivos cuando el tiempo es un factor para tomar una decisión o tienen una capacidad limitada para procesar información. Y, sin considerar la información objetiva, el comportamiento, el juicio o las elecciones de uno pueden terminar siendo ilógicos o erróneos.

Como la mayoría de las cosas, los sesgos cognitivos tienen sus ventajas y sus inconvenientes. Por ejemplo, imagina que estás caminando solo a casa tarde una noche y escuchas un ruido detrás de ti. En lugar de detenerse a investigar, acelera el paso pensando en su seguridad. En este caso, la puntualidad es más importante que la precisión & # 8211 si el ruido fue un gato callejero crujiendo en algunas hojas o fue un perpetrador tratando de hacerte daño & # 8211 no es probable que esperes para averiguarlo.

Alternativamente, piense en un jurado que juzga a alguien que está siendo condenado por un delito. Un juicio justo requiere que el jurado ignore información irrelevante en el caso, se resista a las falacias lógicas como las apelaciones a la compasión y tenga la mente abierta al considerar todas las posibilidades para descubrir la verdad. Sin embargo, los sesgos cognitivos a menudo impiden que las personas hagan todas estas cosas. Dicho esto, debido a que los sesgos cognitivos se han estudiado ampliamente, los investigadores saben que los miembros del jurado a menudo no logran ser completamente objetivos en sus opiniones de una manera que sea tanto sistemática como predecible.

Echemos un vistazo a 15 sesgos cognitivos específicos que experimentan muchas personas. Después de leer este artículo, podrá detectar estos prejuicios en su vida cotidiana, lo que puede llevarlo a dar un paso atrás y analizar más a fondo un problema antes de llegar a una conclusión.


4. Sesgo de apoyo a la elección

Las personas evalúan sus propias elecciones anteriores como mejores que el promedio.

No estoy argumentando que usted debería "incitar" a sus destinatarios a tomar decisiones que lo beneficien, porque ellos serán "engañados" y les harán pensar que fue una buena decisión.

En cambio, I & rsquom argumenta que si puede obtener pequeños compromisos de las personas, será más probable que continúen trabajando con usted en proyectos más grandes o más exigentes (que aún deberían ser mutuamente beneficiosos).


2. Saber y conquistar: 16 sesgos cognitivos específicos de la innovación clave

A continuación, debemos ser conscientes de los prejuicios específicos en el trabajo para que podamos identificarlos nosotros mismos a medida que ocurren. Aquí hay 16 sesgos cognitivos a tener en cuenta que impactan la creatividad y el proceso de innovación. Pueden originarse desde prejuicios personales hasta dinámicas de grupo y política, y más. A continuación, se muestran algunos que afectan el pensamiento divergente y creativo en los grupos de trabajo:

Póster de sesgos cognitivos

  1. Sesgo de confirmación: creemos lo que queremos creer al favorecer la información que confirma creencias o preconceptos preexistentes. Esto se traduce en buscar soluciones creativas que confirmen nuestras creencias en lugar de desafiarlas, cerrándonos a nuevas posibilidades.

“Lo opuesto al coraje no es cobardía, es conformidad. Incluso un pez muerto puede ir con la corriente

- Jim Hightower

¿Existe un nombre para este sesgo cognitivo?

Esto es algo que he visto a lo largo de los años, pero parece que se ha magnificado últimamente.

El concepto es que para algunas personas la verdad es relativa y su relatividad se basa únicamente en lo que alguien / algo más cree. Si esa persona / cosa decide que 2 + 2 = 5, es & # x27s 5. Ahora si esa persona / cosa cambia de rumbo y 2 + 2 = 4, & # x27s ahora 4 y cada argumento para que sea 5 de antemano es irrelevante.

Obviamente, esto es muy irracional, pero hay algo interesante en ello. Esto parece ser especialmente frecuente en religión, política, etc.

¿Existe un sesgo cognitivo en el que esto caería?

Editar: busque también & # x27asch effect, & # x27 en la misma wiki si acaba de leer la pestaña & quot; bases psicológicas & quot.

Creo que está en el mismo ámbito. Creo que a lo que estoy tratando de llegar es a qué hace que esa persona sea una autoridad en la mente de esa persona. Tome DJT, por ejemplo, no es una autoridad en la mayoría de los campos en los que tiene opiniones, pero la gente cree lo que dice porque viene de él y creen en él. ¿Por qué le creen sin importar lo que digan, incluso si entra en conflicto con lo que ha dicho anteriormente? Si se demuestra que está equivocado, es por los medios corruptos y no por la inconsistencia de él.

¿Deberíamos llamar a eso un sesgo cognitivo o simplemente & quot; citar movimiento & quot? Y por emoción y / o sentimiento quiero decir: la creencia instantánea y la verdad sentida de uno se mantienen independientemente de otros pensamientos, sentimientos, razones o disonancia cognitiva.

Aparte: conozco personas que creen lo que creen cuando lo creen. Y sé que no puedo depender de lo que crean en este momento para predecir su comportamiento en otro momento.

Pero, ¿no están los prejuicios emocionales irracionales basados ​​en prejuicios cognitivos?

No estoy seguro, pero algunos podrían postularse. echa un vistazo a Belief Bias

En psicología se conoce como el sesgo de los `` napoleones múltiples ''. Básicamente, la idea de que todo es relativo y que la creencia absurda de alguien es tan buena como la sensata. En psicología, ese sesgo se usa para mostrar que, con esta creencia, ninguna idea podría considerarse patológica. Entonces tenemos que entender que cada persona sí experimenta una realidad diferente, y que la realidad es subjetiva, pero que para llegar a cualquier tipo de comprensión constructiva de la realidad hay que entender más creencias patológicas y sin sentido como tales.

Si crees que esto suena irracional, todavía no te has enterado del panorama completo. No es & # x27t, simplemente aplíquelo de una manera ligeramente incorrecta.

La cosa es: Lo que nuestra conciencia aplique sobre las percepciones que recibe, definirá las emociones que surgirán.
Esto significa, a largo plazo, lo que sea que aplique su conciencia, y esto puede definirse mediante el pensamiento, se reflejará en sus emociones. Con eso, haces tu verdad relativa. No puedes cambiar el mundo exterior, pero puedes cambiar el pensamiento y por eso, puedes cambiar el eco de la percepción dentro de tu conciencia.
Esto no es, de ninguna manera, irracional, pero como son las cosas.


Sesgos: una introducción

No es un secreto. Sin embargo, por alguna razón, rara vez surge en una conversación y pocas personas preguntan qué debemos hacer al respecto. Es un patrón, oculto invisible detrás de todos nuestros triunfos y fracasos, invisible detrás de nuestros ojos. ¿Qué es?

Imagínese metiendo la mano en una urna que contiene setenta bolas blancas y treinta rojas, y sacando diez bolas misteriosas. Quizás tres de las diez bolas serán rojas, y adivinará correctamente cuántas bolas rojas en total había en la urna. O tal vez se te ocurra agarrar cuatro bolas rojas, o algún otro número. Entonces probablemente obtendrá el número total incorrecto.

Este error aleatorio es el costo de un conocimiento incompleto y, a medida que avanzan los errores, no es tan malo. Tus estimaciones no serán incorrectas de mediay cuanto más aprenda, menor tenderá a ser su error.

Por otro lado, suponga que las bolas blancas son más pesadas y se hunden hasta el fondo de la urna. Entonces su muestra puede no ser representativa en una dirección consistente.

Ese tipo de error se llama "sesgo estadístico". Cuando su método de aprender sobre el mundo está sesgado, es posible que aprender más no ayude. Adquirir más datos puede incluso empeorar una predicción sesgada.

Si está acostumbrado a tener en alta estima el conocimiento y la investigación, esta es una perspectiva aterradora. Si queremos estar seguros de que aprender más nos ayudará, en lugar de hacernos peor de lo que estábamos antes, debemos descubrir y corregir los sesgos en nuestros datos.

La idea de sesgo cognitivo en psicología funciona de manera análoga. Un sesgo cognitivo es un error sistemático en como pensamos, a diferencia de un error aleatorio o uno que es simplemente causado por nuestra ignorancia. Mientras que el sesgo estadístico sesga una muestra para que se parezca menos a una población más grande, los sesgos cognitivos sesgan nuestra creencias de modo que representen con menos precisión los hechos y sesguen nuestra Toma de decisiones para que logre nuestros objetivos de manera menos confiable.

Tal vez tenga un sesgo de optimismo y descubra que las bolas rojas se pueden usar para tratar una rara enfermedad tropical que afecta a su hermano. Entonces puede sobrestimar cuántas bolas rojas contiene la urna porque deseo las bolas eran en su mayoría rojas. Aquí, su muestra no es lo que está sesgado. Estás lo que está sesgado.

Ahora que estamos hablando de sesgado genteSin embargo, debemos tener cuidado. Por lo general, cuando llamamos a individuos o grupos "sesgados", lo hacemos para castigarlos por ser injustos o parciales. Cognitivo el sesgo es una bestia completamente diferente. Los prejuicios cognitivos son una parte básica de cómo piensan los humanos en general, no el tipo de defecto que podríamos atribuir a una educación terrible oa una personalidad podrida. 1

Un sesgo cognitivo es una forma sistemática en la que sus patrones innatos de pensamiento no alcanzan la verdad (o algún otro objetivo alcanzable, como la felicidad). Al igual que los sesgos estadísticos, los sesgos cognitivos pueden distorsionar nuestra visión de la realidad, no siempre pueden solucionarse simplemente recopilando más datos y sus efectos pueden acumularse con el tiempo. Pero cuando el instrumento de medición mal calibrado que está tratando de arreglar es usted, la depilación es un desafío único.

Aún así, este es un lugar obvio para comenzar. Porque si no puedes confiar en tu cerebro, ¿cómo puedes confiar en otra cosa?

Sería útil tener un nombre para este proyecto de superar el sesgo cognitivo y de superar todas las especies de errores en los que nuestras mentes pueden llegar a minarse a sí mismas.

Podríamos llamar a este proyecto como queramos. Por el momento, sin embargo, supongo que "racionalidad" es un nombre tan bueno como cualquier otro.

Sentimientos racionales

En una película de Hollywood, ser "racional" generalmente significa que eres un estoico severo e hiperintelectual. Piense en Spock de Star Trek, quien "racionalmente" reprime sus emociones, "racionalmente" se niega a confiar en intuiciones o impulsos, y se queda atónito y es superado fácilmente al encontrarse con un oponente errático o "irracional". 2

Existe una noción de "racionalidad" completamente diferente estudiada por matemáticos, psicólogos y científicos sociales. Aproximadamente, es la idea de haciendo lo mejor que puede con lo que tiene. Una persona racional, sin importar cuán fuera de su profundidad esté, forma las mejores creencias que puede con la evidencia que tiene. Una persona racional, sin importar cuán terrible sea la situación en la que se encuentre, toma las mejores decisiones que puede para mejorar sus probabilidades de éxito.

La racionalidad del mundo real no se trata de ignorar tus emociones e intuiciones. Para un ser humano, la racionalidad a menudo significa volverse más consciente de sus sentimientos, por lo que puede tenerlos en cuenta en sus decisiones.

La racionalidad puede consistir incluso en saber cuándo no pensar demasiado en las cosas. Al seleccionar un póster para poner en su pared, o al predecir el resultado de un juego de baloncesto, se ha encontrado que los sujetos experimentales se desempeñan peor si analizaban cuidadosamente sus razones. 3, 4 Hay algunos problemas en los que la deliberación consciente nos sirve mejor y otros en los que los juicios rápidos nos sirven mejor.

Los psicólogos que trabajan en teorías de proceso dual distinguen los procesos del "Sistema 1" del cerebro (cognición rápida, implícita, asociativa, automática) de sus procesos del "Sistema 2" (cognición lenta, explícita, intelectual, controlada). 5 El estereotipo Es que los racionalistas se basen completamente en el Sistema 2, sin tener en cuenta sus sentimientos e impulsos. Si se mira más allá del estereotipo, alguien que en realidad está siendo racional, en realidad logrando sus objetivos, en realidad mitigando el daño de sus sesgos cognitivos, dependería en gran medida de los hábitos e intuiciones del Sistema-1, donde es confiable.

Desafortunadamente, el Sistema 1 por sí solo parece ser un terrible guía sobre "¿Cuándo debo confiar en el Sistema 1?" Nuestras intuiciones inexpertas no nos dicen cuándo debemos dejar de confiar en ellas. Ser parcial y ser imparcial sentir lo mismo. 6

Por otro lado, como señala el economista conductual Dan Ariely: estamos predeciblemente irracional. Nos equivocamos de la misma manera, una y otra vez, sistemáticamente y con timidez.

Si no podemos usar nuestro instinto para descubrir cuándo estamos sucumbiendo a un sesgo cognitivo, es posible que aún podamos usar las ciencias de la mente.

Las muchas caras del sesgo

Para resolver problemas, nuestros cerebros han evolucionado para emplear heurísticas cognitivas, atajos aproximados que obtienen la respuesta correcta a menudo, pero no todo el tiempo. Los sesgos cognitivos surgen cuando las esquinas cortadas por estas heurísticas dan como resultado un error relativamente consistente y discreto.

La heurística de la representatividad, por ejemplo, es nuestra tendencia a evaluar los fenómenos por lo representativos que parecen de varias categorías. Esto puede llevar a sesgos como el falacia de conjunción. Tversky y Kahneman descubrieron que los sujetos experimentales consideraban menos probable que un tenista fuerte "perdiera el primer set" que "perder el primer set pero ganar el partido". 7 Hacer una reaparición parece más típico de un jugador fuerte, por lo que sobrestimamos la probabilidad de esta narrativa que suena complicada pero sensata en comparación con la probabilidad de un escenario estrictamente más simple.

La heurística de representatividad también puede contribuir a negligencia de la tasa base, donde basamos nuestros juicios en cuán intuitivamente “normal” es una combinación de atributos, descuidando cuán común es cada atributo en la población en general. 8 ¿Es más probable que Steve sea un bibliotecario tímido o que sea un vendedor tímido? La mayoría de las personas responden a este tipo de preguntas pensando en si "tímido" coincide con sus estereotipos de esas profesiones. No toman en consideración cuánto más comunes son los vendedores que los bibliotecarios, setenta y cinco veces más común en los Estados Unidos. 9

Otros ejemplos de sesgos incluyen negligencia de duración (evaluando experiencias sin importar cuánto tiempo duraron), el falacia del costo hundido (sentirse comprometido con cosas en las que ha gastado recursos en el pasado, cuando debería reducir sus pérdidas y seguir adelante), y sesgo de confirmación (dando más peso a la evidencia que confirma lo que ya creemos). 10, 11

Sin embargo, conocer un sesgo rara vez es suficiente para protegerte de él. En un estudio de ceguera al sesgo, los sujetos experimentales predijeron que si supieran que una pintura es obra de un artista famoso, les resultará más difícil evaluar de manera neutral la calidad de la pintura. Y, de hecho, los sujetos a los que se les dijo el autor de una pintura y se les pidió que evaluaran su calidad exhibieron el mismo sesgo que habían predicho, en relación con un grupo de control. Cuando se le preguntó despuésSin embargo, los mismos sujetos afirmaron que sus evaluaciones de las pinturas habían sido objetivas y no se habían visto afectadas por el sesgo, ¡en todos los grupos! 12, 13

Somos especialmente reacios a pensar que nuestras opiniones son inexactas en comparación con las opiniones de los demás. Incluso cuando identificamos correctamente los prejuicios de los demás, tenemos una especial sesgo punto ciego cuando se trata de nuestros propios defectos. 14 No detectamos ningún "pensamiento sesgado" cuando hacemos introspección, por lo que llegamos a la conclusión de que debemos ser más objetivos que los demás. 15

Estudiar los sesgos puede, de hecho, hacerte más vulnerable al exceso de confianza y al sesgo de confirmación, a medida que llega a ver la influencia de los sesgos cognitivos a su alrededor, en todos menos en usted mismo. Y el punto ciego del sesgo, a diferencia de muchos sesgos, es especialmente severo entre las personas que están especialmente inteligente, reflexivo y de mente abierta. 16 , 17

Esto es motivo de preocupación.

Todavía. parece que deberíamos poder hacerlo mejor. Se sabe que podemos reducir la negligencia de la tasa base pensando en las probabilidades como frecuencias de objetos o eventos. Podemos minimizar el descuido de la duración prestando más atención a la duración y representándola gráficamente. 18 Las personas varían en la intensidad con que exhiben diferentes prejuicios, por lo que debería haber una serie de formas aún desconocidas de influir en cuán sesgados somos.

Sin embargo, si queremos mejorar, no es suficiente que analicemos detenidamente las listas de sesgos cognitivos. El enfoque para el debiasing en Racionalidad: de la IA a los zombis es comunicar una comprensión sistemática de por qué funciona el buen razonamiento y de cómo el cerebro no lo alcanza. En la medida en que este volumen haga su trabajo, su enfoque se puede comparar con el descrito en Serfas, quien señala que "años de experiencia laboral relacionada financieramente" no afectaron la susceptibilidad de las personas al sesgo de costos hundidos, mientras que "el número de los cursos a los que asistí ”ayudaron.

Como consecuencia, podría ser necesario distinguir entre experiencia y pericia, con pericia significando "el desarrollo de un principio esquemático que involucra la comprensión conceptual del problema", que a su vez permite al tomador de decisiones reconocer sesgos particulares. Sin embargo, utilizar la experiencia como contramedida requiere más que estar familiarizado con el contenido de la situación o ser un experto en un dominio en particular. Requiere que uno comprenda completamente la justificación subyacente del sesgo respectivo, sea capaz de detectarlo en el entorno particular y también tenga a mano las herramientas adecuadas para contrarrestar el sesgo. 19

El objetivo de este libro es sentar las bases para crear "experiencia" en la racionalidad. Eso significa adquirir una comprensión profunda de la estructura de un problema muy general: el sesgo humano, el autoengaño y los mil caminos por los que el pensamiento sofisticado puede vencerse a sí mismo.

Unas palabras sobre este texto

Racionalidad: de la IA a los zombis comenzó su vida como una serie de ensayos de Eliezer Yudkowsky, publicados entre 2006 y 2009 en el blog de economía Superar el sesgo y su blog comunitario derivado Menos mal. Trabajé con Yudkowsky durante el último año en el Machine Intelligence Research Institute (MIRI), una organización sin fines de lucro que fundó en 2000 para estudiar los requisitos teóricos de la inteligencia artificial (IA) más inteligente que la humana.

Leer las publicaciones de su blog me interesó en su trabajo. Me impresionó con su capacidad para comunicar de manera concisa ideas que me había llevado años de estudio de filosofía analítica internalizar. Al tratar de reconciliar el espíritu anárquico y escéptico de la ciencia con un enfoque riguroso y sistemático de la investigación, Yudkowsky intenta no solo refutar sino también comprender los muchos pasos en falso y los callejones sin salida que puede producir la mala filosofía (y la mala falta de filosofía). Mi esperanza al ayudar a organizar estos ensayos en un libro es que sea más fácil sumergirse en ellos y apreciarlos como un todo coherente.

La cartilla de racionalidad resultante es con frecuencia personal e irreverente, extraída, por ejemplo, de las experiencias de Yudkowsky con su madre judía ortodoxa (psiquiatra) y su padre (físico), y de conversaciones en salas de chat y listas de correo. Lectores que estén familiarizados con Yudkowsky de Harry Potter y los métodos de la racionalidad, su despegue orientado a la ciencia de J.K. Rowling Harry Potter libros, reconocerán la misma iconoclastia irreverente y muchos de los mismos conceptos centrales.

Estilísticamente, los ensayos de este libro abarcan desde un "libro de texto animado" hasta un "compendio de viñetas reflexivas" y un "manifiesto desenfrenado", y el contenido es correspondientemente variado. Racionalidad: de la IA a los zombis recopila cientos de publicaciones del blog de Yudkowsky en veintiséis "secuencias", series en forma de capítulo de publicaciones vinculadas temáticamente. Las secuencias a su vez se agrupan en seis libros, que cubren los siguientes temas:

Libro IMapa y territorio. ¿Qué es una creencia y qué hace que algunas creencias funcionen mejor que otras? Estas cuatro secuencias explican la Bayesiano nociones de racionalidad, creencia y evidencia. Un tema corriente: las cosas que llamamos "explicaciones" o "teorías" no siempre funcionan como mapas para navegar por el mundo. Como resultado, corremos el riesgo de mezclar nuestros mapas mentales con los otros objetos de nuestra caja de herramientas.

Libro IICómo cambiar realmente de opinión. Esta cosa de la verdad parece bastante útil. Entonces, ¿por qué seguimos sacando conclusiones apresuradas, esforzándonos y recapitulando los mismos errores? Porque somos tan malo en la adquisición de creencias precisas, y ¿cómo podemos mejorar? Estas siete secuencias discuten el razonamiento motivado y el sesgo de confirmación, con un enfoque especial en especies de autoengaño difíciles de detectar y la trampa de "usar argumentos como soldados".

Libro IIILa máquina en el fantasma. Por qué no tengo evolucionamos para ser más racionales? Incluso teniendo en cuenta las limitaciones de recursos, parece que podríamos obtener mucho más beneficio epistémico por nuestro dinero probatorio. Para tener una imagen realista de cómo y por qué nuestras mentes ejecutan sus funciones biológicas, necesitamos abrir el capó y ver cómo funciona la evolución y cómo funciona nuestro cerebro, con más precisión. Estas tres secuencias ilustran cómo incluso los filósofos y los científicos pueden descarriarse cuando se basan en explicaciones evolutivas o psicológicas intuitivas y no técnicas. Al ubicar nuestras mentes dentro de un espacio más grande de sistemas dirigidos a objetivos, podemos identificar algunas de las peculiaridades del razonamiento humano y apreciar cómo tales sistemas pueden "perder su propósito".

Libro IVMera realidad. ¿En qué tipo de mundo vivimos? ¿Cuál es nuestro lugar en ese mundo? Basándose en los ejemplos de las secuencias anteriores sobre cómo funcionan los modelos evolutivos y cognitivos, estas seis secuencias exploran la naturaleza de la mente y el carácter de la ley física. Además de aplicar y generalizar lecciones pasadas sobre los misterios científicos y la parsimonia, estos ensayos plantean nuevas preguntas sobre el papel que debe desempeñar la ciencia en la racionalidad individual.

Libro VMera bondad. Que hace que algo valioso¿Moral, estética o prudencialmente? Estas tres secuencias preguntan cómo podemos justificar, revisar y naturalizar nuestros valores y deseos. El objetivo será encontrar una manera de comprender nuestros objetivos sin comprometer nuestros esfuerzos para alcanzarlos realmente. En este caso, el mayor desafío es saber cuándo confiar en los impulsos desordenados y complicados de cada caso sobre lo que está bien y lo que está mal, y cuándo reemplazarlos con principios simples y sin excepciones.

Libro VIHaciéndose más fuerte. ¿Cómo pueden los individuos y las comunidades poner en práctica todo esto? Estas tres secuencias comienzan con un relato autobiográfico de los mayores errores filosóficos de Yudkowsky, con consejos sobre cómo cree que otros podrían hacerlo mejor. El libro se cierra con recomendaciones para desarrollar planes de estudio de racionalidad aplicada basados ​​en la evidencia y para formar grupos e instituciones que apoyen a los estudiantes, educadores, investigadores y amigos interesados.

Las secuencias también se complementan con "interludios", ensayos tomados del sitio web personal de Yudkowsky, http://www.yudkowsky.net. Estos se relacionan con las secuencias de varias maneras, por ejemplo, Las doce virtudes de la racionalidad resume poéticamente muchas de las lecciones de Racionalidad: de la IA a los zombis, y a menudo se cita en otros ensayos.

Haciendo clic en el asterisco verde () al final de un ensayo lo llevará a la versión original del mismo en Menos mal (donde puede dejar comentarios) o en el sitio web de Yudkowsky.

Mapa y territorio

Este, el primer libro, comienza con una secuencia sobre el sesgo cognitivo: "Previsiblemente incorrecto". El resto del libro no se limitará a este tema, los malos hábitos y las malas ideas importan, incluso cuando surgen de los contenidos de nuestra mente y no de la estructura de nuestra mente. Así, los errores evolucionados e inventados se mostrarán en secuencias posteriores, comenzando con una discusión en "Creencias falsas" sobre las formas en que las expectativas de uno pueden separarse de las creencias profesadas.

Una explicación de la irracionalidad también estaría incompleta si no proporcionara una teoría sobre cómo racionalidad funciona — o si su "teoría" sólo consistía en vagas perogrulladas, sin un mecanismo explicativo preciso. La secuencia "Notando confusión" pregunta por qué es útil basar el comportamiento de uno en expectativas "racionales" y qué se siente al hacerlo.

A continuación, “Mysterious Answers” ​​pregunta si la ciencia nos resuelve estos problemas. Los científicos basan sus modelos en experimentos repetibles, no en especulaciones o rumores. Y la ciencia tiene un historial excelente en comparación con la anécdota, la religión y ... prácticamente todo lo demás. ¿Todavía tenemos que preocuparnos por las creencias "falsas", el sesgo de confirmación, el sesgo de retrospectiva y cosas por el estilo cuando trabajamos con una comunidad de personas que quieren explicar fenómenos, no solo contar historias atractivas?

A esto le sigue The Simple Truth, una alegoría independiente sobre la naturaleza del conocimiento y la creencia.

Sin embargo, es el sesgo cognitivo el que proporciona la visión más clara y directa del material de nuestra psicología, de la forma de nuestras heurísticas y de la lógica de nuestras limitaciones. Es con prejuicios que comenzaremos.

Hay un pasaje en el Zhuangzi, un texto filosófico proto-daoísta, que dice: "La trampa para peces existe debido a los peces, una vez que lo tienes, puedes olvidarte de la trampa". 20

Los invito a explorar este libro con ese espíritu. Úselo como si fuera una trampa para peces, siempre consciente del propósito que tiene para él. Lleve consigo lo que pueda usar, siempre que siga utilizándose, descarte el resto. Y que su propósito le sirva bien.

Expresiones de gratitud

Estoy tremendamente agradecido con Nate Soares, Elizabeth Tarleton, Paul Crowley, Brienne Strohl, Adam Freese, Helen Toner y decenas de voluntarios por corregir partes de este libro.

Un agradecimiento especial y sincero a Alex Vermeer, quien dirigió este libro hasta su finalización, y Tsvi Benson-Tilsen, quien revisó todo el libro para asegurar su legibilidad y consistencia.

La idea de sesgo personal, sesgo de los medios, etc. se asemeja al sesgo estadístico en que es un error. Otras formas de generalizar la idea de "sesgo" se centran en cambio en su asociación con la no aleatoriedad. En el aprendizaje automático, por ejemplo, un inductivo El sesgo es simplemente el conjunto de suposiciones que utiliza un alumno para derivar predicciones a partir de un conjunto de datos. Aquí, el alumno está "sesgado" en el sentido de que apunta en una dirección específica, pero dado que esa dirección puede ser la verdad, no es malo que un agente tenga un sesgo inductivo. Es valioso y necesario. Esto distingue claramente el "sesgo" inductivo de los otros tipos de sesgo. & # x21a9

Una triste coincidencia: Leonard Nimoy, el actor que interpretó a Spock, falleció pocos días antes del lanzamiento de este libro. Aunque citamos a su personaje como un ejemplo clásico de la falsa "racionalidad de Hollywood", no queremos faltarle el respeto a la memoria de Nimoy. & # x21a9

Timothy D. Wilson et al., "La introspección sobre las razones puede reducir la satisfacción posterior a la elección", Boletín de personalidad y psicología social 19 (1993): 331–331. & # x21a9

Jamin Brett Halberstadt y Gary M. Levine, "Efectos del análisis de razones sobre la precisión de la predicción de juegos de baloncesto", Revista de psicología social aplicada 29, no. 3 (1999): 517–530. & # x21a9

Keith E. Stanovich y Richard F. West, "Diferencias individuales en el razonamiento: ¿Implicaciones para el debate sobre la racionalidad?" Ciencias del comportamiento y del cerebro 23, no. 5 (2000): 645–665, http://journals.cambridge.org/abstract_S0140525X00003435. & # x21a9

Timothy D. Wilson, David B. Centerbar y Nancy Brekke, "Mental Contamination and the Debiasing Problem", en Heurística y sesgos: la psicología del juicio intuitivo, ed. Thomas Gilovich, Dale Griffin y Daniel Kahneman (Cambridge University Press, 2002). & # x21a9

Amos Tversky y Daniel Kahneman, "Razonamiento extensional versus intuitivo: la falacia de la conjunción en el juicio de probabilidad", Revisión psicológica 90, no. 4 (1983): 293–315, doi: 10.1037 / 0033295X.90.4.293. & # x21a9

Richards J. Heuer, Psicología del análisis de la inteligencia (Centro de Estudios de Inteligencia, Agencia Central de Inteligencia, 1999). & # x21a9

Wayne Weiten, Psicología: Temas y variaciones, versión más breve, octava edición (Cengage Learning, 2010). & # x21a9

Raymond S. Nickerson, "Sesgo de confirmación: un fenómeno ubicuo en muchas formas", Revisión de psicología general 2, no. 2 (1998): 175. & # x21a9

Descuido de la probabilidad es otro sesgo cognitivo. En los meses y años posteriores a los ataques del 11 de septiembre, muchas personas optaron por conducir largas distancias en lugar de volar. El secuestro no fue probable, pero ahora se sentía como si estuviera sobre la mesa la mera posibilidad de secuestrar decisiones enormemente impactadas. Al confiar en el razonamiento en blanco y negro (los automóviles y los aviones son "seguros" o "inseguros", punto), la gente se pone en un peligro mucho mayor. Donde deberían haber sopesado la probabilidad de morir en un viaje en automóvil a campo traviesa con la probabilidad de morir en un vuelo a campo traviesa (la primera es cientos de veces más probable), en cambio se basaron en su sentimiento general de preocupación y ansiedad (la afectar heurística). Podemos ver el mismo patrón de comportamiento en los niños que, al escuchar argumentos a favor y en contra de la seguridad de los cinturones de seguridad, saltan de un lado a otro pensando que los cinturones de seguridad son una idea completamente buena o completamente mala, en lugar de tratar de comparar las fortalezas de las consideraciones a favor y en contra. 21 Algunos ejemplos más de sesgos son: regla de pico / final (evaluación de eventos recordados en función de su momento más intenso y cómo terminaron) fondeo (basando decisiones en información encontrada recientemente, incluso cuando es irrelevante) 22 y autoanclaje (usándose a sí mismo como modelo para las características probables de los demás, sin pensar lo suficiente en las formas en que es atípico) 23 y sesgo de status quo (favoreciendo excesivamente lo que es normal y esperado sobre lo nuevo y diferente). 24 & # x21a9

Katherine Hansen et al., "Las personas reclaman objetividad después de usar estrategias sesgadas a sabiendas", Boletín de personalidad y psicología social 40, no. 6 (2014): 691–699. & # x21a9

De manera similar, Pronin escribe sobre la ceguera por prejuicios de género:

En un estudio, los participantes consideraron a un candidato masculino y femenino para un puesto de jefe de policía y luego evaluaron si ser "astuto" o "educado formalmente" era más importante para el trabajo. El resultado fue que los participantes favorecieron los antecedentes que se les dijo que poseía el candidato masculino (por ejemplo, si se les decía que era “astuto”, lo veían como más importante). Los participantes estaban completamente ciegos a este sesgo de género, de hecho, cuanto más objetivos creían que habían sido, más sesgo mostraban en realidad. 25

En una encuesta de 76 personas que esperaban en los aeropuertos, las personas se calificaron a sí mismas como mucho menos susceptibles a los sesgos cognitivos en promedio que una persona típica en el aeropuerto. En particular, las personas se consideran inusualmente imparciales cuando el sesgo es socialmente indeseable o tiene consecuencias difíciles de notar. 27 Otros estudios encuentran que las personas con vínculos personales con un tema ven esos vínculos como una mejora de su comprensión y objetividad, pero cuando ven otra gente exhibiendo los mismos lazos, infieren que esas personas están demasiado apegadas y sesgadas. & # x21a9

Joyce Ehrlinger, Thomas Gilovich y Lee Ross, "Peering Into the Bias Blind Spot: People's Assessments of Bias in Self and Others", Boletín de personalidad y psicología social 31, no. 5 (2005): 680–692. & # x21a9

Richard F. West, Russell J. Meserve y Keith E. Stanovich, "La sofisticación cognitiva no atenúa el punto ciego del sesgo", Revista de personalidad y psicología social 103, no. 3 (2012): 506. & # x21a9

... No debe confundirse con personas que piensan que son inusualmente inteligentes, reflexivas, etc. debido al sesgo de superioridad ilusoria. & # x21a9

Michael J. Liersch y Craig R. M. McKenzie, "Descuido de la duración por números y su eliminación por gráficos", Comportamiento organizacional y procesos de decisión humana 108, no. 2 (2009): 303–314. & # x21a9

Sebastián Serfas, Sesgos cognitivos en el contexto de la inversión de capital: consideraciones teóricas y experimentos empíricos sobre violaciones de la racionalidad normativa (Springer, 2010). & # x21a9

Zhuangzi y Burton Watson, Las obras completas de Zhuangzi (Prensa de la Universidad de Columbia, 1968). & # x21a9

Cass R. Sunstein, "Probabilidad negligente: emociones, peores casos y ley", Revista de derecho de Yale (2002): 61–107. & # x21a9

Dan Ariely, Previsiblemente irracional: las fuerzas ocultas que dan forma a nuestras decisiones (HarperCollins, 2008). & # x21a9

Boaz Keysar y Dale J. Barr, "Auto-anclaje en la conversación: por qué los usuarios del lenguaje no hacen lo que" deberían "", en Heurística y sesgos: la psicología del juicio intuitivo: la psicología del juicio intuitivo, ed. Griffin Gilovich y Daniel Kahneman (Nueva York: Cambridge University Press, 2002), 150–166, doi: 10.2277 / 0521796792. & # x21a9

Scott Eidelman y Christian S. Crandall, "Bias in Favor of the Status Quo", Brújula de psicología social y de la personalidad 6, no. 3 (2012): 270–281. & # x21a9

Eric Luis Uhlmann y Geoffrey L. Cohen, "‘ Lo creo, luego es verdad ’: Efectos de la objetividad autopercibida sobre la discriminación en la contratación", Comportamiento organizacional y procesos de decisión humana 104, no. 2 (2007): 207–223. & # x21a9

Emily Pronin, "Cómo nos vemos a nosotros mismos y cómo vemos a los demás", Ciencias 320 (2008): 1177–1180, http://web.cs.ucdavis.edu/

Emily Pronin, Daniel Y. Lin y Lee Ross, "The Bias Blind Spot: Perceptions of Bias in Self versus Others", Boletín de personalidad y psicología social 28, no. 3 (2002): 369–381. & # x21a9


Contenido

Imágenes de espejo Editar

La trampa de personalidad más común, conocida como imagen en espejo [2] es la suposición de los analistas de que las personas estudiadas piensan como los propios analistas. Una variación importante es confundir los sujetos reales con la información o las imágenes que uno tiene sobre ellos, como el tipo de manzana que uno come y las ideas y problemas que puede plantear. Plantea un dilema para el método científico en general, ya que la ciencia usa la información y la teoría para representar sistemas naturales complejos como si las construcciones teóricas pudieran controlar procesos naturales indefinibles. La incapacidad para distinguir sujetos de lo que uno está pensando en ellos también se estudia bajo el tema de la fijación funcional, estudiado primero en psicología Gestalt y en relación con el problema sujeto-objeto.

Los analistas experimentados pueden reconocer que han sido víctimas de la imagen en espejo si descubren que no están dispuestos a examinar variantes de lo que consideran más razonable a la luz de su marco de referencia personal. Los analistas menos perceptivos afectados por esta trampa pueden considerar las objeciones legítimas como un ataque personal, en lugar de mirar más allá del ego a los méritos de la pregunta. La revisión por pares (especialmente por parte de personas de diferentes antecedentes) puede ser una sabia salvaguarda. La cultura organizacional también puede crear trampas que hacen que los analistas individuales no estén dispuestos a desafiar a expertos reconocidos en el grupo.

Fijación del objetivo Editar

Otra trampa fijación de objetivo, tiene una analogía en la aviación: ocurre cuando los pilotos se concentran tanto en lanzar su artillería que pierden de vista el panorama general y chocan contra el objetivo. Esta es una tendencia humana más básica de lo que muchos creen. Los analistas pueden fijarse en una hipótesis, mirando solo evidencia que sea consistente con sus ideas preconcebidas e ignorando otros puntos de vista relevantes. El deseo de un cierre rápido es otra forma de fijación de ideas.

"La familiaridad con los métodos terroristas, los repetidos ataques contra instalaciones estadounidenses en el extranjero, combinados con los indicios de que Estados Unidos continental estaba en la parte superior de la lista de objetivos terroristas podrían habernos alertado de que estábamos en peligro de un ataque significativo. Quienes estudien fallas de inteligencia encontrarán familiar, el 11 de septiembre encaja mucho en la norma de sorpresa causada por una falla en la advertencia de inteligencia ". [3] El colapso ocurrió, en parte, porque había un intercambio de información deficiente entre los analistas (en diferentes oficinas del FBI, por ejemplo). A nivel conceptual, la inteligencia estadounidense sabía que las acciones de Al Qaeda casi siempre implican ataques múltiples y casi simultáneos, sin embargo, el FBI no asimiló información fragmentada sobre el comportamiento extraño de los estudiantes extranjeros de entrenamiento de vuelo en este contexto.

El día de los secuestros (bajo una tremenda presión de tiempo), ningún analista asoció los múltiples secuestros con la firma de múltiples ataques de al-Qaeda. El hecho de no concebir que pudiera ocurrir un ataque mayor dentro de los Estados Unidos dejó al país desprevenido. Por ejemplo, las irregularidades detectadas por la Administración Federal de Aviación y el Comando de Defensa Aérea de América del Norte no fluyeron hacia un centro donde los analistas pudieran consolidar esta información e (idealmente) cotejarla con informes anteriores de comportamiento extraño entre ciertos pilotos en entrenamiento, o la posibilidad de secuestro. aviones de pasajeros que se utilizan como armas.

Analogías inapropiadas Editar

Las analogías inapropiadas son otra trampa cognitiva. Aunque las analogías pueden ser extremadamente útiles, pueden volverse peligrosas cuando se fuerzan o cuando se basan en supuestos de equivalencia cultural o contextual. Evitar tales analogías es difícil cuando los analistas son simplemente inconscientes de las diferencias entre su propio contexto y el de los demás; se vuelve extremadamente difícil cuando no se dan cuenta de que faltan conocimientos importantes. Las dificultades asociadas con admitir la propia ignorancia son una barrera adicional para evitar tales trampas. Tal ignorancia puede tomar la forma de un estudio insuficiente: una falta de información fáctica o comprensión, una incapacidad para combinar hechos nuevos con viejos o una simple negación de hechos contradictorios.

Incluso los pensadores extremadamente creativos pueden tener dificultades para obtener apoyo dentro de su organización. A menudo, más preocupados por las apariencias, los gerentes pueden suprimir los conflictos que nacen de la creatividad a favor del status quo. Un caso especial de estereotipos es el de la estufa, en el que un grupo que ha invertido mucho en una tecnología de recolección en particular ignora información válida de otras fuentes (especialización funcional). Era una tendencia soviética valorar a HUMINT (Inteligencia humana), extraído del espionaje, sobre todas las demás fuentes, el OSINT soviético se vio obligado a salir de la organización de inteligencia estatal para desarrollar el Instituto de la Academia de Ciencias Soviética de los EE. UU. (más tarde EE. UU. y Canadá). [4]

Otro problema de especialización puede surgir como resultado de la compartimentación de la seguridad. Un equipo analítico con acceso exclusivo a una fuente puede exagerar la importancia de esa fuente. Este puede ser un problema importante con las relaciones HUMINT a largo plazo, en las que los socios desarrollan vínculos personales.

Los grupos (como los analistas individuales) también pueden rechazar la evidencia que contradice las conclusiones previas. Cuando esto sucede, a menudo es difícil evaluar si la inclusión de ciertos analistas en el grupo fue la aplicación reflexiva de "equipos rojos" deliberadamente contrarios, o la inserción politizada de ideólogos para militar por una determinada política. La monopolización del flujo de información (causada por este último) también se ha denominado "estufa", por analogía con las disciplinas de recopilación de inteligencia.

Hay muchos niveles en los que uno puede malinterpretar otra cultura, ya sea la de una organización o un país. Una trampa que se encuentra con frecuencia es la hipótesis del actor racional, que atribuye un comportamiento racional al otro lado, según una definición de racionalidad de la propia cultura.

El antropólogo social Edward T. Hall ilustró uno de esos conflictos [5] con un ejemplo del suroeste de Estados Unidos. Los conductores "anglosajones" se enfurecieron cuando la policía de tránsito "hispana" los citaría por sobrepasar el límite de velocidad a 1 mi / h, aunque un juez hispano luego desestimaría el cargo. Los conductores "hispanos", por otro lado, estaban convencidos de que los jueces "anglosajones" eran injustos porque no desestimaban los cargos debido a circunstancias atenuantes.

Ambas culturas eran racionales con respecto a la aplicación de la ley y la adjudicación de cargos de hecho, ambas creían que una de las dos tenía que ser flexible y la otra tenía que ser formal. Sin embargo, en la cultura anglosajona, la policía tenía discreción con respecto a la emisión de multas por exceso de velocidad, y se esperaba que el tribunal cumpliera con la letra de la ley. En la cultura hispana, se esperaba que la policía fuera estricta, pero los tribunales equilibrarían la situación. Hubo un malentendido fundamental que ambos lados eran etnocéntricos, y ambos asumieron incorrectamente que la otra cultura era una imagen especular de sí misma. En ese ejemplo, la negación de la racionalidad fue el resultado en ambas culturas, sin embargo, cada una actuaba racionalmente dentro de su propio conjunto de valores.

En una entrevista posterior, Hall habló ampliamente sobre la comunicación intercultural. [6] Resumió años de estudio con esta afirmación: "Pasé años tratando de averiguar cómo seleccionar personas para ir al extranjero. Este es el secreto. Tienes que saber cómo hacer un amigo. ¡Y eso es todo!"

Para hacer un amigo, uno tiene que entender la cultura del amigo potencial, la propia cultura y cómo las cosas que son racionales en uno pueden no traducirse en el otro. Las preguntas clave son:

Si podemos alejarnos de los paradigmas teóricos y centrarnos más en lo que realmente está pasando con la gente, lo estaremos haciendo bien. Tengo dos modelos que usé originalmente. Uno es el modelo lingüístico, es decir, lingüística descriptiva. Y el otro es el comportamiento animal. Ambos implican prestar mucha atención a lo que está sucediendo justo debajo de nuestras narices. No hay forma de obtener respuestas a menos que se sumerja en una situación y preste mucha atención. A partir de esto, se experimenta la validez e integridad de los patrones. En otras palabras, el patrón puede vivir y convertirse en parte de ti.

Lo principal que marca mi metodología es que realmente me uso a mí mismo como control. Me presto mucha atención a mí mismo, a mis sentimientos porque entonces tengo una base. Y no es intelectual.

Sesgo de proporcionalidad asume que las cosas pequeñas en una cultura son pequeñas en todas las culturas. En realidad, las culturas priorizan de manera diferente. En la cultura occidental (especialmente del norte de Europa), los horarios son importantes y llegar tarde puede ser una gran descortesía. Esperar el turno de uno es la norma cultural, y no hacer cola es una falla cultural. El "asesinato por honor" parece extraño en algunas culturas, pero es una parte aceptada de otras.

Sin embargo, incluso dentro de una cultura, los individuos siguen siendo individuales. Presunción de acción unitaria por parte de las organizaciones es otra trampa. En la cultura japonesa, las líneas de autoridad son muy claras, pero la persona mayor también buscará el consenso. Los negociadores estadounidenses pueden presionar para que se tomen decisiones rápidas, pero los japoneses necesitan construir un consenso primero, una vez que existe, pueden ejecutarlo más rápido que los estadounidenses.

El país (u organización) del analista no es idéntico al de su oponente. Un error es reflejar la oposición, asumiendo que actuará de la misma manera que lo haría el país y la cultura de uno bajo las mismas circunstancias. "Parecía inconcebible para los planificadores estadounidenses en 1941 que los japoneses fueran tan tontos al atacar a una potencia cuyos recursos excedían tanto a los de Japón, garantizando así virtualmente la derrota". [3]

De la misma manera, ningún analista de la protección de la fuerza de la Marina de los EE. UU. Arleigh Burke-destructor de clase como el USS Col siendo atacado con un pequeño bote suicida, muy parecido a los que los japoneses planeaban usar ampliamente contra las fuerzas de invasión durante la Segunda Guerra Mundial.

El "otro lado" hace diferentes supuestos tecnológicos Editar

El marco cultural de un oponente afecta su enfoque de la tecnología. Eso complica la tarea de los propios analistas de evaluar los recursos del oponente, cómo se pueden usar y definir los objetivos de inteligencia en consecuencia. La creación de imágenes en espejo, comprometiéndose con un conjunto de supuestos comunes en lugar de desafiar esos supuestos, ha figurado en numerosas fallas de inteligencia.

En el teatro del Pacífico de la Segunda Guerra Mundial, los japoneses parecían creer que su lenguaje era tan complejo que incluso si sus criptosistemas como la máquina de cifrado tipo B (código púrpura) estaban rotos, los forasteros no entenderían realmente el contenido.Eso no era estrictamente cierto, pero era suficiente que hubiera casos en los que incluso los destinatarios previstos no entendían claramente la intención del escritor. [ cita necesaria ]

Por otro lado, la Marina de los EE. UU. Asumió que los barcos anclados en las aguas poco profundas de Pearl Harbor estaban a salvo de un ataque con torpedos a pesar de que en 1940, en la Batalla de Taranto, los británicos habían realizado exitosos ataques con torpedos en aguas poco profundas contra buques de guerra italianos en el puerto. .

Incluso si los servicios de inteligencia hubieran atribuido a los conspiradores de los ataques del 11 de septiembre de 2001 la capacidad organizativa necesaria para secuestrar cuatro aviones de pasajeros simultáneamente, nadie habría sospechado que el arma preferida de los secuestradores sería el cortador de cajas. [3]

Del mismo modo, la Marina de los EE. UU. Subestimó el peligro de los botes suicidas en el puerto y estableció reglas de enfrentamiento que permitieron que un barco no identificado navegara hacia el USS. Col sin ser advertido o disparado. A Burke-el destructor de clase es uno de los más poderosos [ cita necesaria ] buques de guerra jamás construidos, pero las políticas de seguridad de EE. UU. no protegieron al USS atracado Col. [3]

El "otro lado" no toma decisiones como tú Editar

La creación de imágenes en espejo puede ser un problema importante para los responsables de la formulación de políticas, así como para los analistas. Durante la guerra de Vietnam, Lyndon B. Johnson y Robert S. McNamara asumieron que Ho Chi Minh reaccionaría a las situaciones de la misma manera que ellos. De manera similar, en el período previo a la Guerra del Golfo, hubo un grave malentendido, independiente de la manipulación de inteligencia por motivos políticos, de que Saddam Hussein vería la situación tanto en Kuwait como en el Departamento de Estado y la Casa Blanca.

Los países opuestos no son monolíticos, ni siquiera dentro de sus gobiernos. Puede haber competencia burocrática, que se asocia con diferentes ideas. Algunos dictadores, como Hitler y Stalin, eran conocidos por crear disensiones internas, de modo que solo el líder tenía el control total. Un tema actual, que los analistas entienden, pero que los políticos pueden no o pueden querer explotar jugando con los temores internos, es la estructura política y de poder real de Irán; no se debe equiparar el poder del presidente de Irán con el del presidente de los Estados Unidos.

Los oponentes no siempre son racionales. Pueden tener una mayor tolerancia al riesgo que el propio país. Mantener la ilusión de una amenaza de ADM parece haber sido una de las estrategias de supervivencia de Saddam Hussein. Volviendo al ejemplo iraní, una declaración aparentemente irracional del presidente iraní Mahmoud Ahmadinejad no tendría el peso de una declaración similar del líder supremo Ali Khamenei. Los analistas a veces asumen que el oponente es totalmente sabio y conoce todas las debilidades del otro lado. A pesar de ese peligro, es poco probable que los oponentes actúen de acuerdo con el mejor de los casos, pueden adoptar el enfoque del peor de los casos al que uno es más vulnerable.

El "otro lado" puede estar intentando confundirte Editar

Los analistas deben formar hipótesis, pero también deben estar preparados para reexaminarlas repetidamente a la luz de nueva información en lugar de buscar evidencia que respalde su teoría preferida. Deben recordar que el enemigo puede estar engañándolos deliberadamente con información que le parece plausible. Donald Bacon observó que "las historias de engaño más exitosas eran aparentemente tan razonables como la verdad. El engaño estratégico aliado, así como el engaño soviético en apoyo de las operaciones en Stalingrado, Kursk y la ofensiva de verano de 1944, todos explotaron las creencias preexistentes del liderazgo alemán y fueron, por lo tanto, increíblemente efectivos ". [7] Las teorías que Hitler pensaba que eran inverosímiles no fueron aceptadas. El personal de engaño occidental alternaba engaños "ambiguos" y "engañosos", el primero pretendía simplemente confundir a los analistas y el segundo para hacer que una alternativa falsa fuera especialmente probable.

De todos los ejércitos modernos, los rusos tratan el engaño estratégico (o, en su palabra, maskirovka, que va más allá de la frase en inglés para incluir engaño, seguridad operativa y ocultación) como parte integral de toda planificación. Están involucrados los niveles más altos de mando. [8]

La batalla de Kursk fue también un ejemplo de eficaz maskirovka soviética. Mientras los alemanes se preparaban para su ofensiva de Kursk, los soviéticos crearon una historia de que tenían la intención de realizar solo operaciones defensivas en Kursk. La realidad era que los soviéticos planearon una gran contraofensiva en Kursk una vez que frenaron el ataque alemán. La inteligencia alemana para el Frente Ruso asumió que los soviéticos llevarían a cabo solo ataques "locales" alrededor de Kursk para "ganar" un mejor lugar de partida para la ofensiva de invierno.

El contraataque del Frente de la Estepa sorprendió a los alemanes.

El oponente puede intentar sobrecargar las propias capacidades analíticas [9] como táctica para quienes preparan el presupuesto de inteligencia y para las agencias cuya vía rápida hacia la promoción está en la recopilación de datos. ayuda del enemigo.


  1. Schouteten, J. J., Gellynck, X. y Slabbinck, H. (2019). Influencia de las etiquetas orgánicas en la percepción del sabor y el perfil emocional del consumidor # 8217s: comparación entre una prueba de ubicación central y una prueba de uso doméstico. Investigación alimentaria internacional (Ottawa, Ontario), 116, 1000–1009. https://doi.org/10.1016/j.foodres.2018.09.038.
  2. Wade, T.J., DiMaria, C. (2003). Efectos del halo de peso: diferencias individuales en el éxito percibido en la vida como una función de la mujer y la raza y el peso. Roles sexuales 48, 461–465. https://doi.org/10.1023/A:1023582629538.
  3. Thorndike, E.L. (1920). Un error constante en las valoraciones psicológicas. Revista de psicología aplicada, 4(1), 25-29. https://doi.org/10.1037/h0071663.
  4. Harvey, S. M. (1938). Una investigación preliminar de la entrevista. Revista británica de psicología. Sección general, 28(3), 263-287. https://doi.org/10.1111/j.2044-8295.1938.tb00874.
  5. Talamas, S. N., Mavor, K. I. y Perrett, D. I. (2016). Cegado por la belleza: sesgo de atractivo y percepciones precisas del rendimiento académico. Más uno, 11(2), e0148284. https://doi.org/10.1371/journal.pone.0148284.

¿Por qué creemos que entendemos el mundo más de lo que realmente lo hacemos?

¿Qué es la ilusión de profundidad explicativa? La ilusión de profundidad explicativa (IOED) describe nuestra creencia de que entendemos más.

¿Por qué la negociación es tan difícil?

La devaluación reactiva se refiere a nuestra tendencia a desacreditar las propuestas hechas por otro partido, especialmente si este partido es visto como.

¿Por qué nuestra confianza es desproporcionada con la dificultad de una tarea?

El efecto difícil-fácil ocurre cuando predecimos incorrectamente nuestra capacidad para completar tareas dependiendo de su nivel de dificultad.


La psicología de la desinformación (los atajos mentales, las confusiones y las ilusiones que nos animan a creer cosas que no son ciertas) pueden decirnos mucho sobre cómo prevenir sus efectos dañinos. Nuestra psicología es lo que afecta si las correcciones funcionan, lo que debemos enseñar en los cursos de alfabetización mediática y por qué somos vulnerables a la información errónea en primer lugar. También es una visión fascinante del cerebro humano.

Aunque los conceptos psicológicos se originan en el mundo académico, muchos se han introducido en el lenguaje cotidiano. La disonancia cognitiva, descrita por primera vez en 1957, es un sesgo de confirmación es otro. Y esto es parte del problema. Así como tenemos epidemiólogos de sillón, podemos convertirnos fácilmente en científicos cognitivos de sillón, y la caracterización errónea de estos conceptos puede crear nuevas formas de desinformación.

Si los reporteros, verificadores de hechos, investigadores, tecnólogos e influyentes que trabajan con información errónea (que, seamos sinceros, son casi todos) no comprenden estas distinciones, no se trata simplemente de confundir un término académico oscuro. Corre el riesgo de convertirse en parte del problema.

Enumeramos los principales conceptos psicológicos que se relacionan con la desinformación, su corrección y prevención. Están pensados ​​como un punto de partida y no como la última palabra. Utilice la lectura adicional sugerida para profundizar más.

Avaricia cognitiva

La característica psicológica que nos hace más vulnerables a la desinformación es que somos "avaros cognitivos". Preferimos utilizar formas más sencillas y fáciles de resolver problemas que las que requieren más reflexión y esfuerzo. Hemos evolucionado para utilizar el menor esfuerzo mental posible.

Esto es parte de lo que hace que nuestro cerebro sea tan eficiente: no querrás pensar mucho en cada cosa. Pero también significa que no pensamos lo suficiente en las cosas cuando lo necesitamos, por ejemplo, cuando pensamos en si algo que vemos en línea es cierto.

Qué leer a continuación: "Cómo la Web está cambiando la forma en que confiamos" por Dario Tarborelli de la Universidad de Londres, publicado en Problemas actuales en informática y filosofía en 2008.

Teoría del proceso dual

La teoría del proceso dual es la idea de que tenemos dos formas básicas de pensar: el Sistema 1, un proceso automático que requiere poco esfuerzo y el Sistema 2, un proceso analítico que requiere más esfuerzo. Debido a que somos avaros cognitivos, generalmente usaremos el pensamiento del Sistema 1 (el más fácil) cuando pensamos que podemos salirse con la nuestra.

El procesamiento automático crea el riesgo de desinformación por dos razones. Primero, cuanto más fácil es procesar algo, más probabilidades tenemos de pensar que es verdad, por lo que los juicios rápidos y fáciles a menudo se sienten correctos incluso cuando no lo son. En segundo lugar, su eficiencia puede perder detalles, a veces cruciales. Por ejemplo, puede recordar algo que leyó en Internet, pero olvide que fue desacreditado.

Qué leer a continuación: "Una perspectiva sobre la base teórica de los modelos de proceso dual" por Gordon Pennycook, publicado en Teoría del proceso dual 2.0 en 2017.

Heurísticas

Las heurísticas son indicadores que usamos para hacer juicios rápidos. Usamos la heurística porque es más fácil que realizar análisis complejos, especialmente en Internet, donde hay mucha información.

El problema con la heurística es que a menudo conducen a conclusiones incorrectas. Por ejemplo, puede confiar en una "heurística de respaldo social", que alguien en quien confía haya respaldado (p. Ej., Retuiteado) una publicación en las redes sociales, para juzgar qué tan confiable es. Pero por mucho que confíe en esa persona, no es un indicador completamente confiable y podría llevarlo a creer algo que no es cierto.

Como explica nuestra cofundadora y directora estadounidense Claire Wardle en nuestra Guía esencial para comprender el trastorno de la información, “En las redes sociales, faltan las heurísticas (los atajos mentales que usamos para darle sentido al mundo). A diferencia de lo que ocurre con un periódico en el que se comprende la sección del periódico que se está mirando y se ven señales visuales que muestran que se encuentra en la sección de opinión o en la sección de dibujos animados, este no es el caso en línea ".

Qué leer a continuación: “Credibilidad y confianza de la información en entornos online: el uso de la heurística cognitiva” por Miriam J. Metzger y Andrew J. Flanagin, publicado en Revista de pragmática , Volumen 59 (B) en 2013.

Disonancia cognitiva

La disonancia cognitiva es la experiencia negativa que sigue a un encuentro con información que contradice sus creencias. Esto puede llevar a las personas a rechazar información creíble para aliviar la disonancia.

Qué leer a continuación: "'Noticias falsas' en la comunicación científica: emociones y estrategias para afrontar la disonancia en línea" por Monika Taddicken y Laura Wolff, publicado en Medios y comunicación, volumen 8 (1), 206–217 en 2020.

Sesgo de confirmación

El sesgo de confirmación es la tendencia a creer en la información que confirma sus creencias existentes y a rechazar la información que las contradice. Los actores de la desinformación pueden explotar esta tendencia para amplificar las creencias existentes.

El sesgo de confirmación es solo uno de una larga lista de sesgos cognitivos.

Qué leer a continuación: "Sesgo de confirmación: un fenómeno ubicuo en muchas formas" por Raymond Nickerson, publicado en Revisión de Psicología General, 2 (2), 175–220 en 1998.

Razonamiento motivado

El razonamiento motivado es cuando las personas usan sus habilidades de razonamiento para creer lo que quieren creer, en lugar de determinar la verdad. El punto crucial aquí es la idea de que las facultades racionales de las personas, en lugar del pensamiento perezoso o irracional, pueden causar creencias mal informadas.

El razonamiento motivado es un punto clave del debate actual en la psicología de la desinformación. En una pieza de 2019 para los New York Times , David Rand y Gordon Pennycook, dos científicos cognitivos de la Universidad de Virginia y el MIT, respectivamente, se opusieron firmemente. Su afirmación es que las personas simplemente no son lo suficientemente analíticas cuando encuentran información. Como ellos lo expresan:

“Un grupo afirma que nuestra capacidad de razonar está secuestrada por nuestras convicciones partidistas: es decir, somos propensos a la racionalización. El otro grupo, al que pertenecemos los dos, afirma que el problema es que a menudo no ejercemos nuestras facultades críticas: es decir, somos mentalmente perezosos ".

Rand y Pennycook continúan construyendo un sólido cuerpo de evidencia de que el pensamiento perezoso, no el razonamiento motivado, es el factor clave en nuestra vulnerabilidad psicológica a la desinformación.

Qué leer a continuación: "¿Por qué la gente se enamora de las noticias falsas?" por Gordon Pennycook y David Rand, publicado en los New York Times en 2019.

Ignorancia pluralista

La ignorancia pluralista es una falta de comprensión de lo que piensan y creen los demás en la sociedad. Esto puede hacer que la gente piense incorrectamente que otros son mayoría cuando se trata de una opinión política, cuando en realidad es una opinión de muy pocas personas. Esto puede empeorar con refutaciones de información errónea (por ejemplo, teorías de conspiración), ya que pueden hacer que esos puntos de vista parezcan más populares de lo que realmente son.

Una variante de esto es el efecto de falso consenso: cuando las personas sobreestiman cuántas otras personas comparten sus puntos de vista.

Qué leer a continuación: “The Loud Fringe: Pluralistic Ignorance and Democracy” de Stephan Lewandowsky, publicado en Dando forma al mundo del mañana en 2011.

Efecto en tercera persona

El efecto de tercera persona describe la forma en que las personas tienden a asumir que la información errónea afecta a otras personas más que a sí mismas.

Nicoleta Corbu, profesora de comunicaciones en la Universidad Nacional de Estudios Políticos y Administración Pública en Rumania, descubrió recientemente que existe un efecto significativo en tercera persona en la capacidad percibida de las personas para detectar información errónea: las personas se califican a sí mismas como mejores en la identificación de información errónea que otras. Esto significa que las personas pueden subestimar su vulnerabilidad y no tomar las medidas adecuadas.

Qué leer a continuación: “Las noticias falsas y el efecto tercera persona: están más influenciados que tú y yo” de Oana Ștefanita, Nicoleta Corbu y Raluca Buturoiu, publicado en Revista de investigación de medios, volumen. 11 3 (32), 5-23 en 2018.

Fluidez

La fluidez se refiere a la facilidad con la que las personas procesan la información. Es más probable que las personas crean que algo es cierto si pueden procesarlo con fluidez: se siente bien y, por lo tanto, parece cierto.

Por eso la repetición es tan poderosa: si la ha escuchado antes, la procesa más fácilmente y, por lo tanto, es más probable que la crea. Repítelo varias veces y aumentarás el efecto. Por lo tanto, incluso si ha escuchado algo como una desacreditación, la mera repetición de la afirmación original puede hacerla más familiar, fluida y creíble.

También significa que la información fácil de entender es más creíble, porque se procesa con mayor fluidez. Como explican Stephan Lewandowsky y sus colegas:

“Por ejemplo, es más probable que la misma afirmación se considere verdadera cuando se imprime con un contraste de color alto en lugar de con un contraste de color bajo & # 8230 presentado en forma de rima en lugar de sin rima & # 8230 que un acento desconocido & # 8230 Además, es menos probable que las preguntas engañosas se reconozcan como tales cuando se imprimen en una fuente fácil de leer ".

Qué leer a continuación: "El estado epistémico de la fluidez en el procesamiento como fuente de juicios de verdad" por Rolf Reber y Christian Unkelbach, publicado en Rev Philos Psychol. Volumen 1 (4): 563–581 en 2010.

Receptividad de mierda

La receptividad de la mierda se trata de cuán receptivo eres a la información que tiene poco interés en la verdad, un cliché sin sentido, por ejemplo. La mierda es diferente de una mentira, que contradice intencionalmente la verdad.

Pennycook y Rand utilizan el concepto de receptividad de mierda para examinar la susceptibilidad a los titulares de noticias falsas. Descubrieron que cuanto más probable es que aceptemos una oración pseudo-profunda (es decir, tonterías) como "El significado oculto transforma una belleza abstracta sin igual", más susceptibles somos a los titulares de noticias falsos.

Esto proporciona evidencia para la teoría más amplia de Pennycook y Rand de que la susceptibilidad a las noticias falsas proviene de un pensamiento analítico insuficiente, en lugar de un razonamiento motivado. En otras palabras, estamos demasiado atascados en el pensamiento automático del Sistema 1 y no lo suficiente en el pensamiento analítico del Sistema 2.

Qué leer a continuación: “¿Quién se enamora de las noticias falsas? Los roles de la receptividad, la exageración, la familiaridad y el pensamiento analítico de mierda ”por Gordon Pennycook y David Rand, publicado en Diario de personalidad en 2019.

Busque las partes dos y tres y manténgase actualizado con el trabajo de First Draft al suscribirse y seguirnos en Facebook y Twitter.


2. Sesgo de actualidad

Definición

Nuestro cerebro, naturalmente, le da más peso a la experiencia reciente.

Ejemplo de un comerciante & # 8217s

En el mercado, este sesgo cognitivo puede manifestarse en un aprendizaje excesivo de las pérdidas recientes. Estamos más afectados por las pérdidas recientes. Por lo tanto, al tratar de mejorar nuestros resultados comerciales, evitamos operaciones que nos recuerden nuestras pérdidas recientes.

Por ejemplo, perdió dinero en tres operaciones de retroceso recientes en una tendencia saludable. Por lo tanto, concluyó que el comercio de retroceso en una tendencia fuerte es una estrategia perdedora. Luego, cambió a rupturas de rango comercial.

Debido a su experiencia reciente, pasó por alto que la mayoría de sus ganancias pasadas provenían de operaciones de retroceso. Al recurrir a las rupturas del rango de negociación, podría estar renunciando a una ventaja valiosa en su estilo de negociación.

Lección y práctica de amplificación

No aprenda de la experiencia reciente. Aprenda de sus resultados comerciales durante un período más prolongado.

Revisar sus operaciones y aprender de ellas es fundamental. Sin embargo, en la práctica, no deberíamos examinarlos y sacar conclusiones con demasiada frecuencia. Debemos asegurarnos de tener una muestra más amplia de operaciones durante un período más largo, antes de llegar a conclusiones útiles.


Ver el vídeo: 2. Η Προκατάληψη της Επιβεβαίωσης (Enero 2022).