February 11, 2021
De parte de La Tarcoteca Contrainfo
328 puntos de vista
Si tenemos claro cu谩les son las formas en que nos intentan manipular no solo seremos capaces de neutralizar las t谩cticas de quienes nos explotan, sino que vislumbrando entre los subterfugios usados contra nosotras nos meteremos en sus propias mentes descubriendo el origen de sus miedos. El abuso no es signo de fortaleza, sino de debilidad y sufrimiento.
Salud! PHkl/tctca
_________________

Traducci贸n tarcoteca – Psychology: Pretending There Is Nothing Wrong | by Roddriver | ElephantsInTheRoom | 1 Feb, 2021 | Medium v铆a Global Research

鈥淯na de las lecciones m谩s tristes de la historia es esta: si nos enga帽an por el tiempo suficiente, tendemos a rechazar cualquier evidencia de dicho enga帽o. Ya no estaremos interesados 鈥嬧媏n descubrir la verdad. El enga帽o nos habr谩 capturado. Es simplemente demasiado doloroso reconocer, incluso ante nosotros mismos, que nos han cazado. Una vez que le das a un charlat谩n poder sobre ti, casi nunca lo recuperas鈥. (1) Carl Sagan

En 2011 hubo una devastadora fusi贸n nuclear en la planta de energ铆a nuclear de Fukushima en Jap贸n. Una “investigaci贸n” concluy贸 que:
鈥淪us causas fundamentales se encuentran en las convenciones arraigadas de la cultura japonesa, nuestra obediencia reflexiva, nuestra renuencia a cuestionar la autoridad, nuestra devoci贸n por plegarnos al programa鈥. (2)
Sin embargo, no hay nada espec铆ficamente japon茅s en estas actitudes. Una mentalidad similar explica muchos de los problemas discutidos en otras publicaciones. Esta publicaci贸n es la primera de dos que brinda algunas ideas sobre por qu茅 nos comportamos como lo hacemos. 驴Por qu茅 personas poderosas en gobiernos y corporaciones cometen tantos cr铆menes? 驴Por qu茅 la gente tolera a un gobierno que comete cr铆menes de guerra? 驴Por qu茅 la gente hace la vista gorda cuando las grandes corporaciones realizan repetidamente actividades poco 茅ticas? 驴Por qu茅 nos enga帽amos tan f谩cilmente?
驴Queremos realmente conocer la Verdad? Negaci贸n y Autoenga帽o
Stanley Cohen escribi贸 un libro titulado “States of Denial” [Estados de negaci贸n], que analizaba por qu茅 poblaciones enteras permiten que sus gobiernos cometan atrocidades. Describi贸 una mentalidad que era “simult谩neamente saber y no saber”. Sabemos algo parcialmente, pero no queremos descubrir el resto, por miedo a descubrir algo perturbador. (3) El cerebro humano es capaz de introspecci贸n y pensamiento independiente, pero nos hemos condicionado a no preguntarnos demasiadas cosas dif铆ciles. preguntas, porque tenemos miedo de las respuestas. Somos vagamente conscientes de que escogemos no mirar los hechos, sin comprender realmente de qu茅 nos estamos evadiendo.
A esto se le suele llamar “ceguera intencionada” o “negaci贸n”. Abarca una amplia gama de fen贸menos, desde gobiernos que cometen atrocidades y empresas que se comportan de forma poco 茅tica, hasta personas que intentan convencerse a s铆 mismas de que sus parejas no est谩n teniendo aventuras. Si cometemos o somos testigos de pr谩cticas da帽inas, intentamos enga帽arnos a nosotros mismos haci茅ndonos creer que son razonables. 
– Proponemos justificaciones, 
– usamos eufemismos para evitar descripciones precisas e 
– ignoramos las consecuencias. 
(4) Esta forma de autoenga帽o permite que individuos, organizaciones e incluso pa铆ses enteros nieguen el conocimiento de cosas que los hacen sentir inc贸modos.
Numerosos empleados gubernamentales y corporativos que han participado en comportamientos poco 茅ticos han admitido posteriormente que sab铆an que sus acciones estaban mal, pero lograron convencerse a s铆 mismos de que las reglas normales no se aplicaban. La mayor铆a de la gente en Gran Breta帽a y Estados Unidos, incluidos los periodistas, tiene cierto entendimiento de que la destrucci贸n de Irak y Libia son cr铆menes monstruosos, pero se sienten tan inc贸modos admitiendo esto que se enga帽an a s铆 mismos creyendo que no es verdad.
Lavado de cerebro: nos mienten todos los d铆as
Repetici贸n
Cuantas m谩s personas est茅n expuestas a una idea, es m谩s probable que la acepten. 
Si escuchamos la misma informaci贸n de los medios una y otra vez, llegamos a creer que debe ser verdad. Si tambi茅n estamos rodeados de amigos, familiares y colegas que repiten la misma perspectiva, porque tambi茅n han sido bombardeados por la misma informaci贸n enga帽osa de los medios, entonces cada vez es m谩s dif铆cil decir que no es cierto.
Distorsi贸n
Convencer a las personas de que crean versiones distorsionadas de los hechos es una forma de lavado de cerebro. 
A todos los soldados de la historia que han matado a personas en otro pa铆s se les ha lavado el cerebro hasta cierto punto. Se les hace creer que disparar a las personas, arrojarles bombas o enterrarlas vivas debajo de un tanque es razonable, incluso si las personas asesinadas est谩n tratando de rendirse. 
A la gente com煤n que apoya estas pol铆ticas tambi茅n se les ha lavado el cerebro para aceptar estas pol铆ticas. 
Deshumanizaci贸n
Esto est谩 relacionado con otro aspecto de la psicolog铆a conocido como deshumanizaci贸n: la capacidad de ver a los dem谩s como menos que humanos. (5) Esto juega un papel importante para permitir que los gobiernos se salgan con la suya con los cr铆menes de guerra en el extranjero, porque las personas que son masacradas, como los musulmanes en el Medio Oriente, son diferentes a nosotros.
Sesgo de confirmaci贸n y un “marco de entendimiento” [entiendo lo que quiero]
Los psic贸logos han reconocido que nuestras creencias son una parte importante de c贸mo nos vemos a nosotros mismos. 
Preferimos recibir informaci贸n que confirme nuestras opiniones o creencias existentes, porque nos hace sentir bien con nosotros mismos. 
Los psic贸logos utilizan el t茅rmino “disonancia cognitiva” para describir una situaci贸n en la que las personas se sienten inc贸modas porque se les presenta evidencia que contradice sus creencias existentes. 
Tratamos de encontrar formas de lidiar con esta incomodidad, ya sea ignorando la informaci贸n o utilizando una l贸gica defectuosa [falsos positivos y negativos] para justificar nuestras creencias existentes. Esto se conoce como “sesgo de confirmaci贸n“, (6) y a menudo se divide en tres 谩reas principales.
En primer lugar, la b煤squeda sesgada es donde buscamos activamente informaci贸n que respalde nuestras opiniones existentes. La mayor铆a de los lectores de peri贸dicos sabr谩n que eligen un peri贸dico en el que los escritores expresan puntos de vista similares a los suyos.
En segundo lugar, la interpretaci贸n sesgada es donde interpretamos que la evidencia ambigua apoya nuestra posici贸n actual. Tambi茅n encontramos razones para descartar la evidencia que contradice nuestras creencias, al convencernos de que la fuente no era confiable.
Finalmente, la memoria sesgada es donde recordamos informaci贸n que respalda nuestras creencias existentes y olvidamos la informaci贸n que las contradice. Con el tiempo, la mayor铆a de las personas olvidan los detalles de lo que han aprendido. Crean un marco de comprensi贸n o un marco de conocimiento. Esto es como una descripci贸n general de c贸mo vemos el mundo. Si la nueva informaci贸n es coherente con este marco, se adapta f谩cilmente al marco, refuerza el marco y puede ser recordada. Si la nueva informaci贸n no encaja f谩cilmente en el marco, entonces no sabemos qu茅 hacer con ella, por lo que tender谩 a ser descartada y olvidada r谩pidamente.
El apego a las creencias parece ser similar al apego por las personas. Investigaciones recientes han demostrado que algunas partes del cerebro se desactivan cuando pensamos en las personas que amamos. En particular, algunas de las 谩reas responsables del pensamiento cr铆tico. Lo mismo parece ser cierto cuando pensamos en creencias. (7) Nuestro cerebro trata de manera diferente cualquier informaci贸n que pueda desafiar nuestras creencias. 
El efecto parece ser m谩s fuerte para los problemas cargados de emociones y para las creencias profundamente arraigadas. Este es particularmente el caso cuando la gente cree en una ideolog铆a poderosa, o una gran idea, como los “mercados”. En su mayor铆a, no nos damos cuenta de cu谩n profundamente estas grandes ideas afectan nuestra forma de pensar. El sesgo de confirmaci贸n puede llevar a una situaci贸n en la que las personas seguir谩n creyendo algo, incluso cuando la evidencia lo contradiga fuertemente. (8)
Las ideas parecen “normales” si muchas otras personas las comparten, incluso si est谩n equivocadas
Si una minor铆a de personas tiene una visi贸n inusual, como “el mundo se est谩 acabando”, a la mayor铆a le parecen extra帽as. Pero cuando las ideas se comparten ampliamente, parecen menos extra帽as e incluso pueden llegar a parecer normales. 
Esto fue evidente durante el per铆odo previo a la crisis financiera de 2008. La creencia en “los mercados” se hab铆a reforzado cada vez m谩s, y pocas personas los cuestionaban abiertamente. La mayor铆a de las personas, incluidos los supuestos expertos, optaron por pasar por alto los efectos adversos ampliamente reconocidos de la desregulaci贸n financiera, como las explosiones de burbujas financieras catastr贸ficas.
Se debe en parte a que las creencias de las personas tienden a desarrollarse con el tiempo. Mientras se forman estas creencias, se pueden cambiar, pero una vez que se han establecido, se vuelve muy dif铆ciles de modificar. 
En particular, si alguien ha expresado su opini贸n, siente que cambiar de opini贸n le hace parecer d茅bil. (9) Con el tiempo, siente que tienen mucho que perder y se vuelve casi imposible cambiar de opini贸n. 
Si un periodista se ha ganado la vida apoyando abiertamente las invasiones de otros pa铆ses, le resultar谩 muy dif铆cil admitir que ha estado apoyando los peores cr铆menes de este siglo.
Esto es particularmente relevante para la creencia de que las personas que hemos elegido para gobernar nuestro pa铆s son personas razonables con buenas intenciones. Queremos creer que no son soci贸patas locos y belicistas, por lo que damos todo tipo de explicaciones para sus cr铆menes. Si matan a dos millones de personas en Irak, nos convencemos de que su explicaci贸n, el que estaban preocupados por las armas de destrucci贸n masiva, el terrorismo o los derechos humanos, debe ser correcta. Aunque, en el fondo, sabemos que son puras mentiras.
Obediencia destructiva: causar da帽o siguiendo 贸rdenes
Algunos experimentos famosos se han centrado en el papel de la obediencia a la autoridad. El m谩s conocido de estos fue realizado inicialmente por Stanley Milgram en 1963. (10) Estos estudios examinaron por qu茅 los individuos obedecen a las autoridades incluso cuando la tarea es moralmente repugnante, cuando no hay recompensa por hacerlo y donde no hay castigo por la desobediencia. En el experimento, se dijo a las personas que aplicaran descargas el茅ctricas severas a otras personas. Los estudios encontraron que muchas personas obedecer谩n esas 贸rdenes. Se han realizado variaciones de los experimentos en todo el mundo, para ver si los resultados son ciertos en otros pa铆ses. Si bien los detalles a veces var铆an, el principio general de que muchas personas har谩n cosas terribles cuando siguen 贸rdenes parece ser cierto. (11)
Se han probado estudios similares en el mundo real, donde se observ贸 a las enfermeras para ver si administraban dosis letales de medicamentos por orden de un m茅dico. Una vez m谩s, quiz谩s sorprendentemente, muy pocos cuestionaron la instrucci贸n. (12) 
La evidencia no experimental de estos efectos en el mundo real est谩 muy extendida. Se cree que una cuarta parte de los accidentes de avi贸n son causados 鈥嬧媝or “obediencia destructiva” (13) y hay un famoso accidente de barcos de guerra que se estrellaron porque nadie cuestion贸 sus 贸rdenes [HMS Victoria 1887]. (14)
Esta obediencia indudablemente crea problemas repetidos en muchas industrias. Las fallos de seguridad debido al recorte de costos son un problema com煤n, incluso cuando la gente sabe que los recortes crear铆an peligros. Esto crea una situaci贸n en la que la 茅tica, la legalidad y la seguridad se vuelven irrelevantes debido a las 贸rdenes de los jefes. Se han producido numerosos vertidos de petr贸leo y explosiones de gas, como el de la refiner铆a de petr贸leo de la ciudad de Texas 2005 o el de la plataforma petrolera Deepwater Horizon 2010 , debido a los ahorros de costos y recortes en las normas de seguridad. (15)
Conformidad y la Desaparici贸n de la 茅tica
La conformidad [acomodaci贸n social] se da cuando la gente trata de encajar con los que les rodean, de ajustarse al grupo. (16) 
Los experimentos m谩s conocidos en esta 谩rea fueron realizados por Solomon Asch en 1951. (17) Los sujetos fueron dispuestos en grupos que ten铆an que hacer tareas simples, como contar el n煤mero de ta帽idos de una campana. Sin que el sujeto lo supiera, todos los dem谩s miembros del grupo estaban “incluidos” en el experimento y se les hab铆a dicho que nombraran un n煤mero incorrecto de ta帽idos. De manera abrumadora, los sujetos estuvieron de acuerdo con el resto del grupo, en lugar de indicar el n煤mero correcto. Resulta que, bajo presi贸n social, la mayor铆a de nosotros preferir铆amos estar equivocados que solos. La independencia mental puede conducir a una sensaci贸n de aislamiento y afectar nuestra autoestima, por lo que intentamos protegernos encajando en el grupo. (18) Este tipo de investigaci贸n se ha repetido constantemente. Uno de los hallazgos m谩s interesantes del experimento fue que algunos participantes no tienen conciencia de haberse “conformado”, es completamente subconsciente. (19)
La conformidad puede explicar una serie de fen贸menos que se han observado. En particular, los investigadores han notado 
– el pensamiento de grupo, donde el deseo de armon铆a dentro de un grupo anula una discusi贸n honesta de alternativas. La gente es reacia a sugerir opiniones disidentes debido a su deseo de conformarse. 
– La polarizaci贸n de actitudes es donde grupos de pensadores de ideas afines tienden a desarrollar puntos de vista a煤n m谩s extremos. 
Parece muy probable que ambos funcionen cuando grupos de pol铆ticos persiguen pol铆ticas exteriores extremistas como la guerra. 
Los l铆deres designan a pensadores de ideas afines como asesores, y las personas con opiniones desafiantes tienden a ser excluidas de la toma de decisiones.
La evidencia de conformidad en el mundo real tambi茅n sugiere que los est谩ndares 茅ticos individuales disminuyen en los grupos. Es poco probable que los estudiantes de medicina j贸venes denuncien si ven algo poco 茅tico. Sin embargo, las investigaciones indican que es incluso menos probable que denuncien despu茅s de 3 a帽os de formaci贸n m茅dica y 茅tica. (20) Los m茅dicos se muestran reacios a implicar a sus colegas, incluso cuando la evidencia de una incompetencia que condujese a la muerte fuera clara. (21)
Muchas personas involucrados en actividades financieras en los a帽os de auge previos a la crisis financiera mundial de 2007 han explicado que no hab铆a un sentido claro de las normas morales. Si todos los que te rodean son recompensados 鈥嬧媝or hacer negocios fraudulentos, 驴Qu茅 es lo normal? Si las empresas est谩n gastando monta帽as de dinero presionando [sobornando, cabildeando] pol铆ticos para que cambien las leyes, esto les hace creerse que las leyes no deben tomarse en serio, son simples obst谩culos que deben ser eludidos. (22)
La obediencia y la conformidad son una combinaci贸n peligrosa
En muchos lugares de trabajo[la mayor铆a], tanto la obediencia como la conformidad est谩n presentes. El personal obedece a sus superiores, pero tambi茅n quiere adaptarse para encajar con sus compa帽eros. En la pr谩ctica, oponerse al consenso es dif铆cil por numerosas razones. (23) La m谩s obvia es que muchos de los sistemas que tenemos actualmente no brindan est铆mulos o recompensas tangibles por oponerse al sistema o desafiar decisiones. De hecho, sucede todo lo contrario. Cuestionar a los colegas, y en particular a los superiores, puede tener un impacto negativo en el trabajo, la reputaci贸n, perspectivas de carrera y recompensas financieras.

__________________

Rod Driver es un acad茅mico particularmente interesado en neutralizar la propaganda estadounidense y brit谩nica de hoy en d铆a. Este es el vig茅simo de una serie titulada Elefantes en la habitaci贸n, que intenta proporcionar una gu铆a para principiantes para comprender lo que realmente est谩 sucediendo en relaci贸n con la guerra, el terrorismo, la econom铆a y la pobreza, sin las tonter铆as de los principales medios de comunicaci贸n.

Notas
1) Carl Sagan, The Demon-Haunted World: Science as a Candle in the Dark, 1995

2) Justin McCurry, 鈥楯apanese cultural traits 鈥榓t heart of Fukushima disaster鈥欌, Guardian, 5 July 2012, at https://www.theguardian.com/world/2012/jul/05/japanese-cultural-traits-fukushima-disaster

3) Stanley Cohen, States of Denial, 2001, pp. 24 鈥 33

4) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp.258-259

5) https://en.wikipedia.org/wiki/Dehumanization

6) https://en.wikipedia.org/wiki/Confirmation_bias

7) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, pp. 45-46

8) Lee Ross and Craig Anderson, 鈥楯udgement under uncertainty: Heuristics and biases鈥, 1974, Science 185 (4157): 1124-31

9) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 316

10) http://en.wikipedia.org/wiki/Stanley_Milgram

11) Brian Resnick, 鈥楾he Stanford prison experiment was massively influential. We just learned it was a fraud鈥, Vox, 13 June 2018, at https://www.vox.com/2018/6/13/17449118/stanford-prison-experiment-fraud-psychology-replication

12) https://en.wikipedia.org/wiki/Hofling_hospital_experiment

C.K.Hofling et al, 鈥楢n experimental study in nurse-physician relationships鈥, Journal of nervous and mental disease, 143(2): 171-80, at https://pubmed.ncbi.nlm.nih.gov/5957275/

13) Eugen Tarnow, 鈥楽elf-destructive obedience in the airplane cockpit and the concept of obedience optimisation鈥, in Thomas Blass (ed.) Obedience to Authority: Current perspectives on the Milgram paradigm, 2000, at https://www.taylorfrancis.com/chapters/self-destructive-obedience-airplane-cockpit-concept-obedience-optimization-eugen-tarnow/e/10.4324/9781410602022-11

14) https://en.wikipedia.org/wiki/HMS_Victoria_(1887)

15) http://en.wikipedia.org/wiki/Texas_City_Refinery_explosion

https://en.wikipedia.org/wiki/Deepwater_Horizon_oil_spill

16) https://en.wikipedia.org/wiki/Conformity

17) Asch, S.E., 鈥極pinions and Social Pressure鈥, Scientific American, 1955, 193(5) pp.3-5

18) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, p.296

19) G. Berns et al, 鈥楴eurobiological correlates of Social Conformity and Independence During mental Rotation鈥, Journal of Biological Psychiatry, no.58, pp.245-253

20) J. Goldie et al, 鈥楽tudents attitudes and potential behaviour with regard to whistle blowing as they pass through a modern medical curriculum鈥, Medical Education, 37, pp.368-375, at https://pubmed.ncbi.nlm.nih.gov/12654122/

21) 鈥楲earning from Bristol: Report of the Public Inquiry into children鈥檚 heart surgery at the Bristol Royal Infirmary 1984-1995鈥 (also known as The Kennedy Report), July 2001, at http://www.wales.nhs.uk/sites3/documents/441/The%20Kennedy%20Report.pdf

22) Margaret Heffernan, Wilful Blindness: Why we ignore the obvious at our peril, 2011, 202

23) Stanley Cohen, States of Denial: Knowing about atrocities and suffering, 2001, p.19




Fuente: Tarcoteca.blogspot.com