Informes registrados: un primer ejemplo y análisis

Informes registrados: un primer ejemplo y análisis

Richard Wiseman1, Caroline Watt2, Diana Kornbrot1

Publicado el 16 de enero de 2019

PubMed 30671302

Información de autor y artículo

Abstract

La reciente «crisis de replicación» en psicología ha centrado la atención en formas de aumentar el rigor metodológico dentro de las ciencias del comportamiento. Parte de este trabajo ha implicado la promoción de «Informes registrados», en los que las revistas revisan los artículos antes de la recopilación y publicación de datos. Aunque este enfoque generalmente se considera un desarrollo relativamente reciente, observamos que un prototipo de este modelo de publicación fue iniciado a mediados de la década de 1970 por el parapsicólogo Martin Johnson en el European Journal of Parapsychology (EJP). Una comparación retrospectiva y observacional de informes registrados y no registrados publicados en el EJP durante un período de diecisiete años proporciona evidencia circunstancial para sugerir que el enfoque ayudó a reducir las prácticas de investigación cuestionables. Este documento tiene como objetivo llevar el trabajo pionero de Johnson a una audiencia más amplia e investigar el papel positivo que pueden desempeñar los informes registrados para ayudar a promover estándares metodológicos y estadísticos más elevados.

Cite esto como

Wiseman R, Watt C, Kornbrot D. 2019. Registered reports: an early example and analysis. PeerJ 7: e6232 https://doi.org/10.7717/peerj.6232

Texto del artículo principal

Antecedentes

En 2011, Daryl Bem publicó un artículo en el Journal of Personality and Social Psychology describiendo los resultados de nueve experimentos que parecían respaldar la existencia de la capacidad psíquica (Bem, 2011). La naturaleza de alto perfil de la revista, combinada con los hallazgos controvertidos, hizo que el artículo de Bem atrajera una cantidad considerable de atención tanto dentro del mundo académico como de los medios de comunicación (Carey, 2011; Halliwell, 2011). Varios académicos criticaron el artículo de Bem, y posteriormente los investigadores informaron que no lograron replicar sus experimentos (Ritchie, Wiseman & French, 2012), comentaron sobre la improbabilidad a priori de que exista una capacidad psíquica (Wagenmakers et al., 2011) y cuestionaron la validez de los estudios originales (Wagenmakers et al., 2011; Alcock, 2011; Francis, 2012; Schimmack, 2012). Esta última línea de crítica se centró en una variedad de cuestiones metodológicas y estadísticas, incluida la falta de un plan de análisis detallado, la notificación selectiva de datos, los análisis post hoc que se presentan como hallazgos confirmatorios y la descripción incompleta de los procedimientos experimentales.

Algunos comentaristas señalaron que muchas de las críticas dirigidas al trabajo de Bem también podrían aplicarse a la investigación dentro de la ciencia del comportamiento convencional (LeBel & Peters, 2011). El trabajo adicional sobre este tema identificó varias «prácticas de investigación cuestionables» (QRP), incluida la falta de publicación de estudios nulos (creando el llamado «problema de cajón de archivos»), la alteración de hipótesis después de la recopilación de datos (a menudo denominada «˜Hypothesizing After the Results are Known»™ o «˜HARKing»™), y la búsqueda de datos en busca de hallazgos significativos («˜p-hacking»™: ver, por ejemplo, John, Loewenstein & Prelec, 2012; Neuroskeptic, 2012). Este trabajo, combinado con los resultados de una iniciativa a gran escala que cuestiona las tasas de replicación de algunos efectos psicológicos bien considerados (Open Science Collaboration, 2015), sentó las bases de la reciente «crisis de replicación» en psicología (Pashler & Wagenmakers, 2012).

Algunos investigadores han comenzado a abordar los problemas relacionados con las tasas de replicación deficientes mediante el desarrollo de procedimientos para ayudar a minimizar los QRP (Nosek, Spies & Motyl, 2012). Uno de los enfoques más populares consiste en alentar a los experimentadores a describir sus hipótesis y análisis planificados antes de la recopilación de datos (Wagenmakers et al., 2012; Van»˜t Veer & Giner-Sorolla, 2016). Este concepto, conocido como «prerregistro», ayuda a minimizar varios de los QRP más importantes, incluido el informe selectivo de estudios, HARKing y p-hacking.

Hay dos formas principales de registro de estudios. El primer enfoque implica que los experimentadores produzcan una descripción de su estudio previsto (incluido el número de participantes, hipótesis y análisis planificados) y luego envíen esta información a algún tipo de registro de estudios confiable como el Open Science Framework (Nosek et al., 2018).

Los registros de estudios han funcionado durante mucho tiempo. Los primeros registros fueron establecidos por investigadores médicos en la década de 1960 y fueron diseñados originalmente para ayudar a los experimentadores a reclutar participantes para ensayos clínicos en lugar de prevenir los QRP (Dickerson & Rennie, 2003). Sin embargo, desde mediados de la década de 1980 en adelante, los investigadores médicos comenzaron a reconocer la importancia de los problemas relacionados con la no publicación de resultados nulos (Simes, 1986; Easterbrook et al., 1991) y, por lo tanto, desarrollaron registros de estudios diseñados explícitamente para abordar el problema.

Kaplan & Irvin (2015) demostraron recientemente la necesidad de tales registros. En 2000, la National Library of Medicine de los National Institutes of Health requirió que los investigadores médicos registraran previamente los aspectos clave de sus estudios (incluyendo protocolo experimental, tamaños de muestra, planes para el manejo de datos faltantes y análisis estadísticos). Kaplan & Irvin compararon los resultados de los estudios antes y después de la necesidad obligatoria de preinscripción, examinando estudios que habían investigado el impacto de los medicamentos y los suplementos dietéticos en las enfermedades cardiovasculares. Sorprendentemente, el 57% de los estudios publicados antes de 2000 informaron un efecto significativo, en comparación con solo el 8% de los estudios publicados después de la introducción del registro previo obligatorio.

En 2008, el blog Neuroskeptic (25 de octubre de 2008; 3 de noviembre de 2008) discutió la necesidad de preinscripción en psicología. Hasta donde sabemos, el primer registro de estudios formales de psicología (que revisa todas las presentaciones y las hace públicas de manera irreversible) se lanzó en 2012 en la Universidad de Edimburgo y se centró en la investigación parapsicológica (Watt, 2012; Watt & Kennedy, 2015). En 2013, Jona Sassenhagen de la Universidad de Marburg fue el primer investigador en prerregistrar un estudio psicológico convencional, aunque utilizó un registro diseñado para registrar estudios clínicos (Neuroskeptic, 3 de febrero de 2013). Desde entonces, se han creado varias plataformas en línea para el registro de estudios dentro de las ciencias del comportamiento, incluido el Open Science Framework (https://osf.io), «As Predicted» (https://aspredicted.org) y The American Economic Association»™s Registry for Randomized Controlled Trials (https://www.socialscienceregistry.org).

El segundo tipo de prerregistro se basa en revistas e implica que los investigadores produzcan una descripción completa de su estudio previsto (incluidos los fundamentos experimentales, las hipótesis, el método y los análisis planificados) y luego envíen este informe para su revisión por pares antes de la recopilación de datos. Si se acepta la presentación, se garantiza la publicación de los autores independientemente del resultado del estudio. Chambers (2017) acuñó la frase «Informes registrados» (RR) para describir este procedimiento.

Hay varias formas en que los RR pueden ayudar a mejorar la calidad de la investigación. Al igual que con todas las formas de prerregistro, los RR requieren que los experimentadores especifiquen previamente varios aspectos de su estudio (incluidas las hipótesis planificadas, el número de participantes y los análisis previstos) y así ayudar a prevenir el sesgo de publicación, el p- hacking y el HARKing. Además, los RR requieren que los investigadores describan el fundamento de su estudio y los procedimientos metodológicos, lo que brinda a los árbitros la oportunidad de ayudar a mejorar la base teórica y el diseño de un experimento antes de la recopilación de datos.

Al rastrear las raíces históricas de esta idea, Chambers (2017) ha señalado que Rosenthal (1966), Walster & Cleary (1970) y Newcombe (1987) describieron las primeras versiones de esta idea, principalmente en un intento de combatir el sesgo de publicación. De manera similar, Kupfersmid (1988) sugirió que la revisión por pares debería realizarse antes del análisis de datos, y señaló que esto ayudaría a prevenir el sesgo de publicación y la piratería informática. Weiss (1989) también recomendó que se revisara un artículo antes de la recopilación de datos, pero sugirió que esto ayudaría a evitar que los investigadores pierdan el tiempo realizando estudios de mala calidad, en lugar de minimizar los QRP. Desafortunadamente, las revistas de psicología en ese momento no adoptaron el procedimiento.

En 2012, Chambers fue invitado a unirse al Consejo Editorial de Cortex y sugirió que la revista ayudara a prevenir los QRP al alentar a los investigadores a enviar artículos para su revisión antes de la recopilación de datos (Chambers, 2017). En 2013, Cortex adoptó la sugerencia de Chambers (Chambers, 2013), y Chambers & Munafo (2013) publicaron una carta abierta pidiendo que otras revistas adopten el mismo enfoque. Esta carta fue firmada por un gran número de psicólogos y ayudó a llamar la atención sobre la noción de RR. Actualmente, más de un centenar de revistas aceptan esta forma de presentación (Center for Open Science, 2018).

Comprensiblemente, los intentos de delinear las raíces históricas de los RR han tendido a centrarse en investigaciones previas dentro de la psicología convencional y la adopción del procedimiento por Cortex en 2013. Sin embargo, muchos académicos desconocen que una versión prototipo de RR se implementó a mediados de la década de 1970 por una revista de parapsicología poco conocida, y que esta política de publicación pionera funcionó con éxito durante muchos años.

En 1973, el psicólogo Martin Johnson fue nombrado oficialmente profesor de parapsicología en la Universidad de Utrecht (Schouten, 1988 «“1989; Parker & Mörck, 2011). Johnson permaneció en el cargo hasta 1986 y falleció en 2011.

Debido a su controvertido tema, la parapsicología tradicionalmente ha atraído una considerable cantidad de atención crítica. A mediados de la década de 1970, gran parte de esta atención se centró en identificar posibles deficiencias metodológicas y estadísticas y en desarrollar formas de ayudar a minimizar estos problemas. Gran parte de este debate anticipó el trabajo actual sobre los QRP en la psicología convencional e involucró discusiones detalladas sobre el impacto de los análisis post hoc (Wiklund, 1977) y el sesgo de publicación (Rhine, 1975; Johnson, 1976).

En noviembre de 1974, Johnson pronunció su discurso inaugural como profesor en la Universidad de Utrecht y posteriormente publicó algunos de los puntos clave de la charla en un artículo de revista (Johnson, 1975). En este artículo, Johnson argumentó que era vital minimizar los posibles problemas metodológicos tanto en la parapsicología como en la psicología convencional. Luego describió tres formas de realizar la investigación y exploró el grado en que cada una estaba abierta al sesgo. El primer enfoque simplemente involucró a un investigador que realizaba un experimento por su cuenta, mientras que el segundo enfoque los involucró trabajando como parte de un equipo. Como tal, ambos enfoques eran de naturaleza relativamente informal y, por lo tanto, estaban abiertos a varios QRP. Sin embargo, el tercer enfoque descrito por Johnson fue mucho más riguroso y fue diseñado explícitamente para prevenir varios problemas metodológicos y estadísticos:

«… de acuerdo con la filosofía de este modelo, el experimentador debe definir su problema, formular sus hipótesis y esbozar su experimento, antes de comenzar su estudio. Debería redactar su manuscrito, indicando al menos los hechos esenciales, antes de llevar a cabo su investigación. Este manuscrito, que en principio solo carece de datos en las tablas, presentación de resultados e interpretación de resultados, debe enviarse a uno o más editores, y el experimentador no debe iniciar su estudio hasta que al menos uno de los editores se haya comprometido a publicar el estudio, independientemente del resultado del experimento. De esta forma, podríamos evitar los informes selectivos. Además, al experimentador no se le dará la oportunidad de cambiar sus hipótesis de tal manera que «˜se ajusten»™ al resultado del experimento». (Página 41)

En resumen, en 1974, Johnson describió muchos de los atributos clave ahora asociados con los RR, incluidos los investigadores que describen aspectos importantes de un estudio antes de la recopilación de datos, la revisión de este informe y la garantía de publicación independientemente del resultado del estudio.

Johnson luego se asoció con otro parapsicólogo y miembro del Departamento de Psicología de Utrecht, Sybo Schouten, y juntos lanzaron The European Journal of Parapsychology (EJP). Esta revista poco conocida fue diseñada principalmente para publicar trabajos experimentales que prueban la posible existencia de la capacidad psíquica. En el Volumen 1:1 (noviembre de 1975), los editores describieron su preferencia por que los investigadores envíen artículos antes de la recopilación de datos (Johnson & Schouten, 1975). Este volumen inicial también contenía el documento basado en el discurso inaugural de Johnson. El volumen 1:2 (mayo de 1976) contenía otro artículo de Johnson sobre la importancia de esta política para combatir la no publicación de resultados nulos (Johnson, 1976). El volumen 1:3 (noviembre de 1976) contenía la primera declaración formal que describía la política de publicación de la revista y señaló:

«Un sello distintivo del European Journal of Parapsychology es el intento de evitar los informes selectivos, es decir, la tendencia a enterrar los resultados «˜negativos»™ y solo a publicar estudios que «˜resultan»™. Para evitar que la revista se convierta en un cementerio de todos los estudios «˜fallidos»™, requerimos que la aceptación o el rechazo de un manuscrito se produzca antes de la fase en la que se recopilan los datos experimentales. La calidad del diseño y la metodología y la justificación del estudio deben considerarse más importantes per se que el nivel de significación del resultado del estudio. Como regla práctica, recomendamos al contribuyente de un artículo que envíe un diseño de su estudio planificado antes de que el estudio se lleve a cabo. Debe indicarse la justificación del estudio, así como todas las hipótesis relacionadas con él. Además, uno debería intentar especificar el número de sujetos, el número de ensayos, etc., más el tipo de métodos estadísticos que se planea utilizar para la evaluación. Se dará prioridad a la publicación de estudios que cumplan con la política de publicación antes mencionada».

Como tal, los editores de EJP adoptaron el espíritu subyacente de los RR (incluida la importancia de publicar resultados tanto positivos como negativos, y juzgar la calidad de la investigación antes de la recopilación de datos) e hicieron intentos iniciales para diseñar un sistema que encapsulara muchos de los atributos clave. de RR (incluso alentar a los investigadores a enviar un documento que especifique su protocolo experimental, tamaño de la muestra, número de ensayos, justificación e hipótesis y análisis de datos). Sin embargo, cabe señalar que las directrices editoriales de EJP no incluían muchos de los controles y contrapesos más elaborados asociados con muchos sistemas modernos para RR (incluidos, por ejemplo, los investigadores que tienen que completar plantillas que les exigen especificar previamente información clave; editores, árbitros y autores que trabajan juntos para formar una «˜aceptación en principio»™ del estudio; una segunda ronda de revisión por pares después de la recopilación de datos; registro de estudios incompletos o retirados; el almacenamiento y publicación de la documentación inicial de los investigadores). Además, como la documentación inicial enviada al EJP por los investigadores no fue, que sepamos, retenida o publicada, no es posible juzgar retrospectivamente el grado en que los investigadores se adhieren a las pautas editoriales. Dejando a un lado estas deficiencias, está claro que los editores de EJP desarrollaron y llevaron a cabo una versión prototípica de los sistemas modernos para RR.

Esta declaración de publicación apareció en todos los números de la EJP desde 1976 a 1992. En 1992, tras el cierre del laboratorio de parapsicología de Utrecht, la dirección editorial de EJP se transfirió a la Unidad de Parapsicología Koestler (Universidad de Edimburgo), y una versión ligeramente modificada de la publicación. La política (aunque todavía enfatiza la apertura a la revisión de manuscritos antes de la recolección de datos) apareció entre 1992 y 2000. El RR final se publicó en el EJP en el Volumen 9 (1992-1993). En 2000, la dirección editorial de EJP se transfirió a la Universidad de Estocolmo y la política de publicación ya no se refería a los RR.

Durante unos 17 años (1976 a 1993), la EJP publicó una combinación de RR y no RR. Además de desempeñar un papel importante y poco conocido en la historia de los RR, esta base de datos única presenta una oportunidad para realizar un estudio exploratorio y retrospectivo que evalúe el impacto de los RR en el resultado del estudio. Dado que los RR fueron diseñados para reducir los QRP, se formuló la hipótesis de que los RR contendrían una proporción menor de resultados estadísticamente significativos que los no RR. Los análisis adicionales tuvieron como objetivo explorar si tal hallazgo podría deberse a dos explicaciones alternativas (a saber, si las diferencias se debieron a los RR y no RR que incluían diferentes tipos de estudios o se realizaron en diferentes momentos). Todos los análisis fueron exploratorios y se informaron todas las exclusiones y medidas de datos.

Método

Diseño: este estudio empleó un diseño observacional retrospectivo

Conjunto de datos y codificación

El conjunto de datos consistió en todos los artículos experimentales que probaron la existencia de capacidad psíquica en los números del EJP entre la publicación del primer y último RR (Volumen 1:3 [1976] al Volumen 9 [1992-1993]). Este conjunto de datos contenía 63 artículos que informaban 110 experimentos. Un asistente de investigación hizo dos copias de cada artículo y luego retiró la primera página del artículo (que contenía una nota al pie que indicaba si el artículo era un RR), aleatorizó el orden de los artículos y se los presentó a dos de los autores (RW y CW) para codificación ciega.

Los experimentos fueron rechazados si no contenían al menos una hipótesis formalmente establecida (N = 4), o si los autores describieron un artefacto metodológico que creían que socavaba todo el experimento (N = 15). Los ejemplos de la última categoría incluyeron: (i) experimentadores que intentaban investigar la supuesta influencia psíquica sobre el crecimiento de las semillas, pero observando que no habían descartado posibles influencias «normales»‘ debido a la siembra, el manejo y la medición no ciegos (Solfvin, 1982); e (ii) investigadores que realizaron una serie de estudios piloto en los que se pidió a grupos de participantes que determinaran psíquicamente la naturaleza de un objetivo oculto, y observaron que sus datos no eran independientes y, por lo tanto, no podían evaluarse de manera significativa (Blackmore, 1981). Se eliminaron tres artículos de la base de datos porque todos sus experimentos habían sido rechazados.

A los experimentos restantes se les asignó un número de identidad de experimento único (ExperimentID) y se codificaron en las siguientes variables:

N: El número de hipótesis formales probadas. Se excluyeron las hipótesis que estaban claramente etiquetadas como exploratorias, post hoc o informales.

H: El número de hipótesis respaldadas. Los experimentos involucrados en el análisis se llevaron a cabo desde mediados de la década de 1970 hasta mediados de la de 1990 y en ese momento los investigadores tendían a centrarse en si sus hallazgos eran estadísticamente significativos en lugar de en los tamaños del efecto. Como resultado, varios artículos contenían escasez de información estadística y algunos incluso simplemente indicaron si los resultados eran o no significativos. Por lo tanto, se decidió emplear la métrica que se informó en cada artículo, y una que hubiera sido más relevante para los investigadores en el momento en que se realizaron los estudios, es decir, si se informó que el análisis que probaba la hipótesis era estadísticamente significativo.

Tema

Los experimentos parapsicológicos se consideran tradicionalmente como una prueba de uno de dos tipos de supuestas habilidades psíquicas: Percepción extrasensorial (ESP: la supuesta conciencia de información sobre eventos externos no obtenida a través de los sentidos tradicionales o deducibles de experiencias previas) y Psicoquinesis (PK: La supuesta influencia mental de un sistema físico o biológico sin interacción física). Algunos investigadores han argumentado que los efectos supuestamente obtenidos en los experimentos de ESP son más robustos que los de los estudios de PK (ver, por ejemplo, Jahn et al., 2000; Bösch, Steinkamp & Boller, 2006). Para ayudar a evaluar si las diferencias en la proporción de hallazgos significativos en RR y no RR podrían deberse a los dos conjuntos de estudios que se centran en diferentes temas, cada estudio se codificó como prueba «ESP» o «PK».

Tiempo

Era posible que los artículos de EJP tuvieran menos probabilidades de informar efectos significativos a lo largo del tiempo (tal vez debido a la identificación en curso y eliminación de artefactos metodológicos) y que los RR tendían a ser publicados en revistas posteriores. Para ayudar a examinar esta posibilidad, los números de las revistas se numeraron cronológicamente del «1» (volumen 1:3) al «23» (volumen 9).

Cada codificador calificó cada artículo de forma independiente, y luego se resolvieron las áreas de desacuerdo antes de romper el ciego. Una vez completada la codificación, el estado de registro de cada experimento se codificó como «RR» o «no RR».

Resultados

El conjunto de datos final contenía 60 artículos: 25 RR y 35 no RR. Los RR describieron 31 experimentos que probaron 131 hipótesis, y los no RR describieron 60 experimentos que probaron 232 hipótesis.

El 28.4% de las pruebas estadísticas informadas en los no RR fueron significativas (66/232: IC del 95% [21.5% -36.4%]); en comparación con el 8.4% de los de los RR (11/131: IC del 95% [4.0% -16.8%]). Un análisis de contingencia simple de 2 × 2 mostró que esta diferencia es altamente estadísticamente significativa (prueba exacta de Fisher: p <.0005, chi-cuadrado de Pearson = 20.1, d de Cohen = .48). Un análisis de modelo lineal generalizado (modelo probit: variable de respuesta; predictor H/N; estado de registro: factor aleatorio; ID de experimento) arrojó un efecto significativo del estado de registro (F (1, 89) = 16.3, p = .0001, d de Cohen = .43). Para examinar si este efecto podría deberse a que los RR y los no RR examinaron diferencialmente la supuesta existencia de ESP o PK, se agregó «Tema» al Modelo Lineal Generalizado y no tuvo una mejora significativa (F [1, 87] = .56, p = .45; para Tema por estado de registro: F [1, 87] = 1.79, p = .18). Además, la variable «Tiempo» se agregó como marcador continuo, pero no produjo efectos significativos (F [1, 87] = 1.01, p = .32; para la edición de la revista por Estado de registro: F [1, 87] = .14 , p = .71). Estos hallazgos sugieren que la diferencia en la proporción de hallazgos significativos informados en RR y no RR no se debió a los dos conjuntos de estudios que investigaron diferentes temas, ni a una metodología mejorada a lo largo del tiempo que se corresponde con menos resultados significativos.

Discusión

Los investigadores han comenzado recientemente a utilizar los RR como una forma de minimizar los QRP dentro de las ciencias del comportamiento. Gran parte de la literatura que describe las raíces históricas de los RR se ha centrado en trabajos anteriores dentro de la psicología convencional y el papel clave desempeñado por Cortex en 2012. Sin embargo, a mediados de la década de 1970 el parapsicólogo Martin Johnson propuso una versión prototípica de los RR. Johnson y el parapsicólogo Sybo Schouten lanzaron el EJP y alentaron explícitamente a los investigadores a presentar RR. Durante los siguientes 17 años, esta revista publicó una combinación de RR y no RR.

La mayoría de los sistemas actuales para RR por lo general implican varias etapas, incluida una revisión previa editorial, el arbitraje del artículo antes de la recopilación de datos y un arbitraje adicional del artículo completo. En contraste, el procedimiento creado por Johnson solo involucró una única ronda de revisión por pares antes de la recolección de datos. Además, mientras que a los investigadores de hoy en día que envían un RR se les pide que preespecifiquen explícitamente una serie de detalles sobre su estudio, la política de publicación de EJP fue más relajada y simplemente instó a los autores a presentar sus fundamentos, hipótesis, número de sujetos y ensayos análisis estadísticos planificados, etc. (desafortunadamente, hasta donde sabemos, la documentación inicial enviada al EJP no se archivó y, por lo tanto, no es posible evaluar el detalle o la precisión del material enviado). Sin embargo, es evidente que el enfoque de Johnson era similar a los sistemas actuales para RR, y era anterior a esos sistemas en unos cuarenta años.

La combinación de RR y no RR del EJP nos permitió evaluar la relación entre los RR y el resultado del estudio. En comparación con los no RR, los RR fueron significativamente menos propensos a contener resultados estadísticamente significativos. Además, no hubo evidencia que sugiriera que este efecto se debiera a diferencias en los temas parapsicológicos bajo investigación, ni a que los dos conjuntos de estudios se llevaran a cabo durante diferentes períodos de tiempo. Como tal, estos resultados son consistentes con la noción de que los RR ayudaron a reducir los QRP (que, a su vez, redujeron la presencia de errores de Tipo 1) y están en línea con trabajos similares reportados en la literatura médica (Kaplan & Irvin, 2015). Sin embargo, los estudios de EJP no se asignaron al azar a la condición, por lo que los RR y los no RR pueden haber variado en varios otros factores (incluidos, por ejemplo, el diseño del estudio, el poder y la calidad metodológica), por lo tanto, es posible que estos factores ser responsable del efecto observado. Como resultado, los hallazgos deben verse como evidencia circunstancial, más que definitiva, de la noción de que los RR ayudan a prevenir los QRP.

Los parapsicólogos investigan la posible existencia de fenómenos que, para muchos, tienen una baja probabilidad a priori de ser genuinos (ver, por ejemplo, Wagenmakers et al., 2011). Esto a menudo ha resultado en que su trabajo esté sujeto a una cantidad considerable de atención crítica (tanto dentro como fuera del campo) que los ha llevado a ser pioneros en varios avances metodológicos antes de su uso dentro de las áreas principales de la psicología convencional, incluido el desarrollo de la aleatorización en el diseño experimental (Hacking, 1988), el uso de ciegos (Kaptchuk, 1998), las exploraciones sobre la aleatorización y la inferencia estadística (Fisher, 1924), los avances en cuestiones de replicación (Rosenthal, 1986), la necesidad de preespecificaciones en el metanálisis (Akers, 1985; Milton, 1999; Kennedy, 2004), y la creación de un registro formal de estudios (Watt, 2012; Watt & Kennedy, 2015). El trabajo de Johnson sobre los RR proporciona otra ilustración sorprendente de este principio en funcionamiento.

Finalmente, el análisis de los artículos de EJP basados en RR reveló que alrededor del 8.4% de los hallazgos fueron estadísticamente significativos, en comparación con el 5% esperado solo por casualidad. Aunque los hallazgos significativos informados en los RR representan evidencia de mayor calidad que los informados en los no RR, este resultado no es una evidencia convincente de la existencia de capacidad psíquica, ya que los experimentos pueden haber contenido otras deficiencias metodológicas no obvias, como problemas relacionados con la pérdida sensorial y mala asignación al azar (Milton & Wiseman, 1997).

Conclusión

En los últimos años, muchos psicólogos han centrado su atención en la reducción de prácticas de investigación cuestionables y la promoción de tasas de replicación. Gran parte de este trabajo ha implicado alentar a los investigadores a registrar previamente sus experimentos como RR. La idea de los RR dentro de las ciencias del comportamiento se considera un desarrollo relativamente reciente y, a menudo, se percibe que las revistas la adoptaron por primera vez alrededor de 2012.

De hecho, un prototipo de este modelo de publicación fue iniciado a mediados de la década de 1970 por el parapsicólogo Martin Johnson, y se publicó durante muchos años en el European Journal of Parapsychology. Una comparación empírica de RR y no RR proporciona evidencia circunstancial que sugiere que el enfoque puede haber ayudado a reducir las prácticas de investigación cuestionables.

Parece apropiado que la última palabra sea para uno de los investigadores involucrados en la política de publicación pionera de EJP. Hace treinta años, Schouten (1988″“1989) señaló que la política innovadora que había ayudado a crear podría actuar como un terreno de prueba útil para un procedimiento que, algún día, podría resultar valioso para la ciencia convencional:

«Especialmente en un área discutible como la parapsicología, es importante enfrentar todo tipo de desafíos con la mente abierta e introducir nuevas y mejores formas de hacer las cosas. Bien podríamos compensar nuestro, a muchos ojos, tema sospechoso estableciendo nuevos y mejores estándares en áreas del proceso científico, como por ejemplo, la metodología o las políticas editoriales». (Página 101)

Es agradable ver que los pensamientos de Schouten ahora se han hecho realidad.

Información suplementaria

Guiones de datos, libros de recetas y análisis

DOI: 10.7717/peerj.6232/supp-1

Download

Información y declaraciones adicionales

Conflicto de intereses

Los autores declaran que no existen intereses en competencia.

Contribuciones de autor

Richard Wiseman y Caroline Watt concibieron y diseñaron los experimentos, realizaron los experimentos, contribuyeron con reactivos/materiales/herramientas de análisis, redactaron o revisaron borradores del documento y aprobaron el borrador final.

Diana Kornbrot analizó los datos, contribuyó con reactivos/materiales/herramientas de análisis, redactó o revisó borradores del documento y aprobó el borrador final.

Disponibilidad de datos

Se proporcionó la siguiente información sobre la disponibilidad de datos:

Se proporciona la lista de artículos de revistas codificados, junto con el libro de cocina y los scripts de análisis como un archivo complementario.

Fondos

Los autores no recibieron financiación para este trabajo.

Agradecimientos

Agradecemos a Ed Venables por preparar los materiales de la revista para la codificación enmascarada y a Chris Chambers por proporcionar información sobre la historia de los RR.

Referencias

Akers C. 1985. Can meta-analysis resolve the ESP controversy? In: Kurtz P, ed. A skeptic»™s handbook of parapsychology. Buffalo: Prometheus.

Alcock JE. 2011. Back from the future: Parapsychology and the Bem affair. Skeptical Inquirer, January 6th. https://doi.org/103758/s13423-012-0227-9, http://www.csicop.org/specialarticles/show/back_from_the_future

Bem DJ. 2011. Feeling the future: experimental evidence for anomalous retroactive influences on cognition and affect. Journal of Personality and Social Psychology 100:407-425

Blackmore SJ. 1981. Errors and confusions in ESP. European Journal of Parapsychology 4:49-70

Bösch H, Steinkamp F, Boller E. 2006. Examining psychokinesis: the interaction of human intention with random number generators»”A meta-analysis. Psychological Bulletin 132:497-523

Carey B. 2011. Journal»™s paper on ESP expected to prompt outrage. New York Times, Jan 5 2011. https://www.nytimes.com/2011/01/06/science/06esp.html

Center for Open Science. 2018. Registered reports: list of participating journals. (accessed 20 August 2018)

Chambers C. 2013. Registered reports: a new publishing initiative at Cortex. Cortex 49:609-610

Chambers C. 2017. The seven deadly sins of psychology: a manifesto for reforming the culture of scientific practice. Princeton: Princeton University Press.

Chambers C, Munafò M. 2013. Trust in science would be improved by study pre-registration.

Dickerson K, Rennie D. 2003. Registering clinical trials. Journal of the American Medical Association 290(4):516-523

Easterbrook PJ, Berlin JA, Gopalan R, Matthews DR. 1991. Publication bias in clinical research. The Lancet 337(8746):867-872

Fisher RA. 1924. A method of scoring coincidence in tests with playing cards. Proceedings of the Society for Psychical Research 34:181-185

Francis G. 2012. Too good to be true: publication bias in two prominent studies from experimental psychology. Psychonomic Bulletin & Review 19(2):151-156

Hacking I. 1988. Telepathy: origins of randomization in experimental design. Isis 70:427-451

Halliwell E. 2011. Can we feel the future through psi? Don»™t rule it out. The Guardian, 25th January 2011. https://www.theguardian.com/commentisfree/belief/2011/jan/25/precognition-feeling-the-future

Jahn R, Dunne B, Bradish G, Dobyns Y, Lettieri A, Nelson R, Mischo J, Boller E, Bösch H, Vaitl D+2 more. 2000. Mind/Machine interaction consortium: portREG replication experiments. Journal of Scientific Exploration 14:499-555

John LK, Loewenstein G, Prelec D. 2012. Measuring the prevalence of questionable research practices with incentives for truth»“telling. Psychological Science 23:524-532

Johnson M. 1975. Models of control and control of bias. European Journal of Parapsychology 1(1):36-44

Johnson M. 1976. On publication policy regarding non-significant results. European Journal of Parapsychology 1(2):1-5

Johnson M, Schouten SA. 1975. Editorial. European Journal of Parapsychology 1(1):1-2

Kaplan RM, Irvin VL. 2015. Likelihood of null effects of large NHLBI clinical trials has increased over time. PLOS ONE 10(8):e0132382

Kaptchuk TJ. 1998. Intentional ignorance: a history of blind assessment and placebo controls in medicine. Bulletin of the History of Medicine 72:389-433

Kennedy JE. 2004. A proposal and challenge for proponents and skeptics of psi. Journal of Parapsychology 68:157-167

Kupfersmid J. 1988. Improving what is published: a model in search of an editor. American Psychologist 43(8):635-642

LeBel EP, Peters KR. 2011. Fearing the future of empirical psychology: Bem»™s (2011) evidence of psi as a case study of deficiencies in modal research practice. Review of General Psychology 15:371-379

Milton J. 1999. Should ganzfeld research continue to be crucial in the search for a replicable psi effect? Part I. Discussion paper and introduction to an electronic-mail discussion. Journal of Parapsychology 63:309-333

Milton J, Wiseman R. 1997. Guidelines for extrasensory perception research. Hatfield: University of Hertfordshire Press.

Neuroskeptic. 2008a. New age experiment goes wrong, hundreds dead. Discover Magazine. http://blogs.discovermagazine.com/neuroskeptic/2008/10/25/new-age-experiment-goes-wrong-hundreds-dead/#.W3nX_NuZM3E (accessed 25 October 2008)

Neuroskeptic. 2008b. Registration: not just for clinical trials. Discover Magazine. http://blogs.discovermagazine.com/neuroskeptic/2008/11/03/registration-not-just-for-clinical-trials/#.W3nYw9uZM3G (accessed 3 November 2008)

Neuroskeptic. 2012. The nine circles of scientific hell. Perspectives on Psychological Science 7:643-644

Neuroskeptic. 2013. Unilaterally raising the scientific standard. Discover Magazine. http://blogs.discovermagazine.com/neuroskeptic/2013/02/03/unilaterally-raising-the-scientific-standard/#.W3nas9uZM3H (accessed 3 February 2013)

Newcombe RG. 1987. Towards a reduction in publication bias. British Medical Journal 295(6599):656-659

Nosek BA, Ebersole CR, DeHaven AC, Mellor DT. 2018. The preregistration revolution. Proceedings of the National Academy of Sciences United States of America 115(11):2600-2606

Nosek BA, Spies JR, Motyl M. 2012. Scientific utopia: I.I. Restructuring incentives and practices to promote truth over publishability. Perspectives on Psychological Science 7:615-631

Open Science Collaboration. 2015. Estimating the reproducibility of psychological science. Open Science 349(6251):aac4716

Parker A, Mörck NC. 2011. Obituaries: Martin Johnson 1930″“2011. Journal of Parapsychology 75(2):353-359

Pashler H, Wagenmakers E-J. 2012. Editors»™ introduction to the special section on replicability in psychological science: a crisis of confidence? Perspectives on Psychological Science 7(6):528-530

Rhine JB. 1975. Publication policy regarding nonsignificant results. Journal of Parapsychology 39(2):135-142

Ritchie SJ, Wiseman R, French CC. 2012. Failing the future: three unsuccessful attempts to replicate Bem»™s «˜retroactive facilitation of recall»™ effect. PLOS ONE 7(3):e33423

Rosenthal R. 1966. Experimenter effects in behavioral research. New York: Appleton-Century-Croft.

Rosenthal R. 1986. Meta-analytic procedures and the nature of replication: the ganzfeld debate. Journal of Parapsychology 50:315-336

Schimmack U. 2012. The ironic effect of significant results on the credibility of multiple-study articles. Psychological Methods 17(4):551-566

Schouten SA. 1988″“1989. The end of the parapsychology laboratory at the University of Utrecht. European Journal of Parapsychology 7:95-116

Simes RJ. 1986. Publication bias: the case for an international registry of clinical trials. Journal of Clinical Oncology 4(10):1529-1541

Solfvin J. 1982. Studies of the effects of mental healing and expectations on the growth of corn seedlings. European Journal of Parapsychology 4(3):287-323

Van «˜t Veer AE, Giner-Sorolla R. 2016. Pre-registration in social psychology»”a discussion and suggested template. Journal of Experimental Social Psychology 67:2-12

Wagenmakers E-J, Wetzels R, Borsboom D, Van der Maas HLJ. 2011. Why psychologists must change the way they analyse their data: the case of psi. Journal of Personality and Social Psychology 100:426-432

Wagenmakers E-J, Wetzels R, Borsboom D, Van der Maas HLJ, Kievit RA. 2012. An agenda for purely confirmatory research. Perspectives on Psychological Science 7(6):632-638

Walster GW, Cleary TA. 1970. A proposal for a new editorial policy in the social sciences. American Statistician 24(2):16-19

Watt C. 2012. Letter to the editor. Journal of Parapsychology 76(2):403

Watt C, Kennedy JE. 2015. Lessons from the first two years of operating a study registry. Frontiers in Psychology 7 Article 173

Weiss D. 1989. An experiment in publication: advance publication review. Applied Psychological Measurement 13(1):1-7

Wiklund N. 1977. Parapsychological temptations: a discussion on decline effects, sex effects, and post-hoc effects. In: Morris JD, Roll WG, Morris RL, eds. Research in Parapsychology 1976. Metuchen: Scarecrow Press. 125-128

https://peerj.com/articles/6232/

Cómo la parapsicología cambió la psicología

Cómo la parapsicología cambió la psicología

14 de octubre de 2020

Richard Wiseman

Recientemente, fui coautor de un artículo sobre cómo una revista de parapsicología poco conocida se adelantó años a su tiempo.

Nuestra historia comienza en 2011, cuando el psicólogo Daryl Bem informó sobre varios experimentos que parecían respaldar la existencia de la capacidad psíquica. Poco después, Stuart Ritchie, Chris French y yo intentamos replicar los estudios, pero obtuvimos resultados nulos. Varios otros académicos también criticaron las estadísticas y los procedimientos de Bem. Este tipo de «Tengo evidencia de habilidad psíquica – Oh, no, no la tienes» ha ocurrido muchas veces a lo largo de los años. Sin embargo, esta vez sucedió algo extraño.

Varios investigadores notaron que las críticas dirigidas al trabajo de Bem también se aplicaban a muchos estudios de la psicología convencional. Muchos de los problemas rodearon a los investigadores que cambiaron sus estadísticas e hipótesis después de haber examinado sus datos, por lo que los comentaristas instaron a los investigadores a presentar una descripción detallada de sus planes antes de ejecutar sus estudios. En 2013, el psicólogo Chris Chambers jugó un papel clave en lograr que la revista académica Cortex adoptara el procedimiento (conocido como Informe Registrado), y muchas otras revistas rápidamente siguieron su ejemplo.

Sin embargo, muchos académicos no saben que una revista de parapsicología poco conocida, The European Journal of Parapsychology, implementó una versión temprana de este concepto en la década de 1970. Durante 17 años, alrededor de la mitad de los estudios en el documento se registraron por adelantado. Si los críticos tenían razón, sería menos probable que estos artículos tuvieran problemas con sus estadísticas y métodos y, por lo tanto, sería más probable que informaran resultados positivos falsos. Para averiguar si este era el caso, recientemente me asocié con Caroline Watt y Diana Kornbrot para examinar los estudios. Los resultados fueron los esperados: alrededor del 8% de los análisis de los estudios que se habían registrado de antemano fueron positivos, en comparación con alrededor del 28% de los otros artículos. Otros académicos ahora están realizando el mismo tipo de análisis en psicología y medicina, y encuentran el mismo patrón.

Los académicos a menudo critican la parapsicología, pero este episodio es un buen ejemplo de cómo el campo a veces está por delante del juego y puede ayudar a mejorar la psicología convencional.

El artículo completo que describe este trabajo está aquí.

Y Diana ahora está mirando más ampliamente la apertura en la ciencia. Si eres un investigador interesado en el área, puedes participar en su encuesta aquí.

https://richardwiseman.wordpress.com/2020/10/14/how-parapsychology-changed-psychology/

Por qué la mayoría de los resultados de las investigaciones sobre Psi son falsos (2)

Para concluir: perspectivas para la investigación futura

Los estudios de psi son particularmente interesantes porque cualquiera que sea la reacción a la pregunta «¿existe psi?» (Bem and Honorton, 1994), sus resultados afectan a toda la psicología. Si psi no existe, los resultados significativos durante casi un siglo solo se han obtenido mediante errores metodológicos, autoengaño, fraude y prácticas de investigación cuestionables. ¿Cómo podríamos evitar tal problema? Desde el comienzo de la crisis de replicabilidad, se han propuesto varias soluciones: prerregistro de diseños de estudio, estadísticas bayesianas, N más grande, diagramas de embudo, análisis de curvas p, metanálisis prospectivo, colaboraciones adversas, etc. (Bateman et al., 2005), lo que podría mostrar, al final, resultados no significativos en el campo de los estudios psi, revelando que psi era solo una ilusión. Ya se ha establecido un registro de prerregistro en el campo de la investigación psi[1] (Watt and Kennedy, 2015, 2017, 2019) así como pautas estadísticas para estudios empíricos (Tressoldi and Utts, 2015; Kennedy, 2016; Utts and Tressoldi, 2019). También se debe promover el envío previo a revistas científicas que acepten un artículo por motivos metodológicos antes de los resultados. En este sentido, actualmente se está llevando a cabo un «proyecto psi transparente» que sigue estas recomendaciones[2]. Este enfoque podría extenderse a otros paradigmas psi para confirmar o negar los resultados significativos de varios metanálisis (Sherwood and Roe, 2003; Storm et al., 2010; Mossbridge et al., 2012).

Por el contrario, si psi existe, significa que la conciencia humana puede interactuar con su entorno más allá de los límites habituales del espacio y el tiempo, lo que tiene consecuencias fundamentales para la forma en que se lleva a cabo la investigación en psicología, incluida la investigación psi (como lo demuestra la paradoja psi). Como ya se mencionó, los resultados de la investigación psi experimental han mostrado, desde sus inicios, patrones extraños en los datos (desplazamiento, inversión, etc.) denominados notablemente psi-perdida (Rhine, 1952) y elusividad (Kennedy, 2003). Una solución podría ser considerar estos patrones no como un obstáculo, o simplemente como el efecto de la aleatoriedad (Wiseman, 2010), sino más bien como una forma de comprender mejor la psi y sus propiedades[3]. Siguiendo esta idea, el físico y psicólogo Walter Von Lucadou ha iniciado una línea original de investigación con el «Modelo de Información Pragmática» (MPI; Lucadou, 1995; Lucadou et al., 2007). En este modelo, psi se considera algo profundamente diferente a los efectos macrofísicos conocidos y la causalidad, que no se basa en la transferencia de información, sino en una forma de proceso de entrelazamiento que depende de la naturaleza subyacente de la realidad (Atmanspacher and Fuchs, 2017; Atmanspacher and Fach, 2019)[4]. Una breve metáfora podría resultar útil aquí. Un experimento psi es como un huevo donde la cáscara forma un sistema organizativo cerrado. Puede ser posible mantener un efecto psi siempre que no se rompa el cierre organizativo, es decir, siempre que no se rompa el huevo para ver qué hay dentro. En esta interpretación, las interacciones psi son posibles siempre que el observador no interfiera con el sistema (Houtkooper, 2002). Una vez que se observa el sistema, «el juego se acaba». Esto explicaría por qué la fuente de psi no se puede determinar precisamente porque el proceso de determinación destruiría las condiciones necesarias para la aparición de psi. También subraya la importancia de la incertidumbre asociada con la fuente de psi. Cuando se utiliza este último para una transferencia de información, el efecto psi se suprimiría, especialmente cuando se intenta reproducir exactamente el mismo conjunto experimental. Esto es lo que Lucadou llama el «Axioma de no transmisión» (Lucadou et al., 2007).

En consecuencia, Lucadou ha intentado poner en marcha un experimento en el que este tipo de efecto podría mantenerse manteniendo un nivel suficiente de incertidumbre en el sistema. Este experimento utiliza el «Método de la Matriz de Correlación» (CMM) en el que se predice el número global de correlaciones entre los participantes y una tarea experimental (asociada con un RNG), pero no la ubicación de tales correlaciones en la matriz de correlaciones (Lucadou, 2015; Flores et al., 2018; Walach et al., 2019). El axioma de no transmisión también podría explicar el efecto de disminución y las tendencias oscilantes en los datos (Pallikari and Boller, 1997; Maier et al., 2018; Maier and Dechamps, 2018). Este último aspecto es particularmente interesante porque estos patrones oscilantes pueden detectarse, demostrarse y analizarse cuando se comparan con efectos clásicos (Rabeyron, 2014).

Esta línea de investigación aparece como un ejemplo interesante de lo que podría concebirse como un ejemplo de «psicología posmoderna» que toma en cuenta la complejidad de la conciencia humana, y más precisamente postula un entrelazamiento potencial entre el observador y lo observado. También muestra cómo psi podría estar implicado en el «problema difícil» de la conciencia (Chalmers, 2007) o el «problema de la medición» (Wigner, 1963). Incluso si la posibilidad de que exista psi suena muy inverosímil para muchos (Wiseman, 2010; Reber and Alcock, 2020), y como lo propusieron recientemente Schooler et al. (2018), un enfoque neutral y respetuoso de este tema podría abrir debates heurísticos dentro del campo más amplio de la psicología sobre la crisis de replicabilidad y la naturaleza de la conciencia.

Declaración de disponibilidad de datos

Las contribuciones originales presentadas en el estudio se incluyen en el artículo aterial complementario, las consultas adicionales pueden dirigirse al autor correspondiente.

Contribuciones de autor

El autor confirma ser el único colaborador de este trabajo y lo ha aprobado para su publicación.

Conflicto de intereses

El autor declara que la investigación se llevó a cabo en ausencia de relaciones comerciales o financieras que pudieran interpretarse como un posible conflicto de intereses.

Referencias

Acunzo, D. J., Evrard, R., and Rabeyron, T. (2013). Anomalous experiences, psi and functional neuroimaging. Front. Hum. Neurosci. 7:893. doi: 10.3389/fnhum.2013.00893

PubMed Abstract | CrossRef Full Text | Google Scholar

Alcock, J. E. (2003). Give the null hypothesis a chance: reasons to remain doubtful about the existence of psi. J. Conscious. Stud. 10, 29″“50.

Google Scholar

Alcock, J. E., Burns, J., and Freeman, A. (2003). Psi wars: Getting to grips with the paranormal. Charlottesville: Imprint Academic.

Google Scholar

Atmanspacher, H., and Fach, W. (2019). Exceptional experiences of stable and unstable mental states, understood from a dual-aspect point of view. Philosophies 4:7. doi: 10.3390/philosophies4010007

CrossRef Full Text | Google Scholar

Atmanspacher, H., and Fuchs, C. A. (2017). The Pauli-Jung conjecture and its impact today. London: Andrews UK Limited.

Google Scholar

Bateman, I., Kahneman, D., Munro, A., Starmer, C., and Sugden, R. (2005). Testing competing models of loss aversion: an adversarial collaboration. J. Public Econ. 89, 1561″“1580. doi: 10.1016/j.jpubeco.2004.06.013

CrossRef Full Text | Google Scholar

Bem, D. (2011). Feeling the future: experimental evidence for anomalous retroactive influences on cognition and affect. J. Pers. Soc. Psychol. 100, 407″“425. doi: 10.1037/a0021524

PubMed Abstract | CrossRef Full Text | Google Scholar

Bem, D., and Honorton, C. (1994). Does psi exist? Replicable evidence for an anomalous process of information transfer. Psychol. Bull. 115, 4″“18. doi: 10.1037/0033-2909.115.1.4

CrossRef Full Text | Google Scholar

Bem, D., Tressoldi, P., Rabeyron, T., and Duggan, M. (2015). Feeling the future: a meta-analysis of 90 experiments on the anomalous anticipation of random future events. F1000Res 4:1188. doi: 10.12688/f1000research.7177.2

PubMed Abstract | CrossRef Full Text | Google Scholar

Bem, D., Utts, J., and Johnson, W. O. (2011). Must psychologists change the way they analyze their data? J. Pers. Soc. Psychol. 101, 716″“719. doi: 10.1037/a0024777

PubMed Abstract | CrossRef Full Text | Google Scholar

Bierman, D. J. (2000). Anomalous baseline effects in mainstream emotion research using psychophysiological variables. J. Parapsychol. 64:239.

Google Scholar

Bierman, D. J., and Rabeyron, T. (2012). «Can psi research sponsor itself? Simulations and results of an automated ARV-casino experiment.» in Paper presented at the 56st annual convention of the parapsychological association.

Google Scholar

Bierman, D. J., Spottiswoode, J. P., and Bijl, A. (2016). Testing for questionable research practices in a meta-analysis: an example from experimental parapsychology. PLoS One 11:e0153049. doi: 10.1371/journal.pone.0153049

PubMed Abstract | CrossRef Full Text | Google Scholar

Blackmore, S. (1987). The elusive open mind: ten years of negative research in parapsychology. Skeptical Inquirer 11, 244″“255.

Google Scholar

Bösch, H., Steinkamp, F., and Boller, E. (2006). Examining psychokinesis: the interaction of human intention with random number generators»“a meta-analysis. Psychol. Bull. 132, 497″“523. doi: 10.1037/0033-2909.132.4.497

PubMed Abstract | CrossRef Full Text | Google Scholar

Braude, S. E. (2007). The gold leaf lady and other parapsychological investigations. Chicago: University of Chicago Press.

Google Scholar

Broughton, R. S. (1979). Repeatability and experimenter effect: are subjects really necessary? Parapsychol. Rev. 10, 11″“14.

Google Scholar

Cardeña, E. (2018). The experimental evidence for parapsychological phenomena: a review. Am. Psychol. 73, 663″“677. doi: 10.1037/amp0000236

PubMed Abstract | CrossRef Full Text | Google Scholar

Cardeña, E. (2019). Errors of the third kind. J. Parapsychol. 83, 117″“120.

Google Scholar

Cardeña, E., Palmer, J., and Marcusson-Clavertz, D. (2015). Parapsychology: A handbook for the 21st century. Jefferson: McFarland.

Google Scholar

Carpenter, J. C. (2012). First sight: ESP and parapsychology in everyday life. Lanham: Rowman & Littlefield Publishers.

Google Scholar

Chalmers, D. (2007). «The hard problem of consciousness» in The Blackwell companion to consciousness. eds. S. Schneider and M. Velmans (Chichester: Wiley-Blackwell).

Google Scholar

Chalmers, A. F. (1979). What is this thing called science?: An assessment of the nature and status of science and its methods. St. Lucia: University of Queensland Press.

Google Scholar

Coyne, J. C., and de Voogd, J. N. (2012). Are we witnessing the decline effect in the Type D personality literature? What can be learned? J. Psychosom. Res. 73, 401″“407. doi: 10.1016/j.jpsychores.2012.09.016

PubMed Abstract | CrossRef Full Text | Google Scholar

Eagleman, D. M., Kagan, A. D., Nelson, S. S., Sagaram, D., and Sarma, A. K. (2007). A standardized test battery for the study of synesthesia. J. Neurosci. Methods 159, 139″“145. doi: 10.1016/j.jneumeth.2006.07.012

PubMed Abstract | CrossRef Full Text | Google Scholar

Eisenbud, J. (1966). The world of Ted serios: «Thoughtographic» studies of an extraordinary mind. New York: William Morrow.

Google Scholar

Eisenbud, J. (1983). Parapsychology and the unconscious. New York: North Atlantic Book.

Google Scholar

Feyerabend, P. (1975). Contre la méthode. Paris: Le Seuil.

Google Scholar

Filk, T., and Römer, H. (2011). Generalized quantum theory: overview and latest developments. Axiomathes 21, 211″“230. doi: 10.1007/s10516-010-9136-6

CrossRef Full Text | Google Scholar

Flores, A. B., Tierney, I., and Watt, C. A. (2018). Where mind connects with matter: replicating the correlation matrix method. J. Parapsychol. 82, 107″“108.

Google Scholar

Galak, J., LeBoeuf, R. A., Nelson, L. D., and Simmons, J. P. (2012). Correcting the past: failures to replicate psi. J. Pers. Soc. Psychol. 103, 933″“948. doi: 10.1037/a0029709

PubMed Abstract | CrossRef Full Text | Google Scholar

Gong, Z., and Jiao, X. (2019). Are effect sizes in emotional intelligence field declining? A meta-meta analysis. Front. Psychol. 10:1655. doi: 10.3389/fpsyg.2019.01655

PubMed Abstract | CrossRef Full Text | Google Scholar

Hansel, C. E. M. (1961). A critical analysis of the Pearce-Pratt experiment. J. Parapsychol. 25, 87″“91.

Google Scholar

Hansen, G. (2001). The trickster and the paranormal. Philadelphia: Xilibiris Corporation.

Google Scholar

Holt, N. (2012). «The muse in the machine: creativity, anomalous experiences and mental health» in Exceptional experience and health. ed. C. Simmonds-Moore (Jefferson: McFarland).

Google Scholar

Houtkooper, J. M. (2002). Arguing for an observational theory of paranormal phenomena. J. Sci. Explor. 16, 171″“185.

Google Scholar

Hyland, M. E. (2003). Extended network generalized entanglement theory: therapeutic mechanisms, empirical predictions, and investigations. J. Altern. Complement. Med. 9, 919″“936. doi: 10.1089/107555303771952262

PubMed Abstract | CrossRef Full Text | Google Scholar

Hyman, R. (1996). Evaluation of a program on anomalous mental phenomena. J. Sci. Explor. 10, 321″“352.

Google Scholar

Hyman, R. (2010). «Parapsychology»™s achilles heel: persistent inconsistency» in Debating psychic experience. eds. S. Krippner and H. L. Friedman (Santa Barbara: Praeger).

Google Scholar

Hyman, R., and Honorton, C. (1986). A joint communiqué: the psi ganzfeld controversy. J. Parapsychol. 50, 351″“364.

Google Scholar

Ioannidis, J. P. (2016a). Most psychotherapies do not really work, but those that might work should be assessed in biased studies. Epidemiol. Psychiatr. Sci. 25, 436″“438. doi: 10.1017/S2045796015000888

CrossRef Full Text | Google Scholar

Ioannidis, J. P. (2016b). Why most clinical research is not useful. PLoS Med. 13:e1002049. doi: 10.1371/journal.pmed.1002049

PubMed Abstract | CrossRef Full Text | Google Scholar

Irwin, H. J., and Watt, C. (2007). An introduction to parapsychology. Jefferson: McFarland.

Google Scholar

John, L. K., Loewenstein, G., and Prelec, D. (2012). Measuring the prevalence of questionable research practices with incentives for truth telling. Psychol. Sci. 23, 524″“532. doi: 10.1177/0956797611430953

PubMed Abstract | CrossRef Full Text | Google Scholar

Kandel, E. R. (2007). In search of memory: The emergence of a new science of mind. New York: Norton & Company.

Google Scholar

Kennedy, J. E. (2003). The capricious, actively evasive, unsustainable nature of psi: a summary and hypotheses. J. Parapsychol. 67, 53″“74.

Google Scholar

Kennedy, J. E. (2016). Is the methodological revolution in psychology over or just beginning. J. Parapsychol. 80, 156″“168.

Google Scholar

Kennedy, J. E., and Taddonio, J. L. (1976). Experimenter effects in parapsychological research. J. Parapsychol. 40, 1″“33.

Google Scholar

Kuhn, T. S. (1962). The structure of scientific revolutions. Chicago: University of Chicago press.

Google Scholar

Lakens, D. (2015). Why a meta-analysis of 90 precognition studies does not provide convincing evidence of a true effect. The Winnower, 6.

Google Scholar

Lawrence, T. R. (1993). «Gathering in the sheep and goats: a meta-analysis of forced-choice sheep-goat ESP studies, 1947″“1993.» in Paper presented at the 36st Annual Convention of the Parapsychological Association; 1993, Parapsychological Association.

Google Scholar

Lucadou, W. (1995). The model of pragmatic information (MPI). Eur. J. Parapsychol. 11, 58″“75.

Google Scholar

Lucadou, W. (2015). «The correlation matrix method (CMM): A new light upon the repeatability problem in parapsychology.» in Paper for the 58th Annual Convention of the Parapsychological Association and the 39th SPR International Conference; 2015, Parapsychological Association.

Google Scholar

Lucadou, W. (2019). Homeopathy and the action of meaning: a theoretical approach. J. Sci. Explor. 33, 213″“254. doi: 10.31275/2019.1343

CrossRef Full Text | Google Scholar

Lucadou, W., Romer, H., and Walach, H. (2007). Synchronistic phenomena as entanglement correlations in generalized quantum theory. J. Conscious. Stud. 14, 50″“74.

Google Scholar

Maier, M. A., and Dechamps, M. C. (2018). Observer effects on quantum randomness: testing micro-psychokinetic effects of smokers on addiction-related stimuli. J. Sci. Explor. 32, 265″“297. doi: 10.31275/2018.1250

CrossRef Full Text | Google Scholar

Maier, M. A., Dechamps, M. C., and Pflitsch, M. (2018). Intentional observer effects on quantum randomness: a Bayesian analysis reveals evidence against micro-psychokinesis. Front. Psychol. 9:379. doi: 10.3389/fpsyg.2018.00379

PubMed Abstract | CrossRef Full Text | Google Scholar

Maxwell, S. E., Lau, M. Y., and Howard, G. S. (2015). Is psychology suffering from a replication crisis? What does «failure to replicate» really mean? Am. Psychol. 70, 487″“498. doi: 10.1037/a0039400

PubMed Abstract | CrossRef Full Text | Google Scholar

May, E. C., Marwaha, S. B., Broughton, F., Cohen, W. S., and Broughton, R. S. (2018). The star gate archives: Reports of the United States government sponsored psi program, 1972″“1995: Volume 1: Remote viewing, 1972″“1984. Jefferson: McFarland & Company.

Google Scholar

May, E. C., Spottiswoode, S., and Faith, L. (2000). The correlation of the gradient of Shannon entropy and anomalous cognition: toward an AC sensory system. J. Sci. Explor. 14, 53″“72.

Google Scholar

May, E. C., Utts, J. M., and Spottiswoode, S. J. P. (1995). Decision augmentation theory: applications to the random number generator database. J. Sci. Explor. 9, 453″“488.

Google Scholar

McMoneagle, J. W., and May, E. C. (2014). «The possible role of intention, attention and expectation in remote viewing» in Anomalous cognition: Remote viewing research and theory. eds. E. C. May and S. B. Marwaha (Jefferson: McFarland), 368″“376.

Google Scholar

Méheust, B. (1999). Somnambulisme et mediumnité. Paris: Les Empêcheurs de penser en rond.

Google Scholar

Méheust, B. (2003). Un voyant prodigieux: Alexis Didier (1826″“1866). Paris: Les Empêcheurs de penser en rond.

Google Scholar

Mossbridge, J. A., and Radin, D. (2018). Precognition as a form of prospection: a review of the evidence. Psychol. Conscious. 5, 78″“93. doi: 10.1037/cns0000121

CrossRef Full Text | Google Scholar

Mossbridge, J., Tressoldi, P., and Utts, J. (2012). Predictive physiological anticipation preceding seemingly unpredictable stimuli: a meta-analysis. Front. Psychol. 3:390. doi: 10.3389/fpsyg.2012.00390

PubMed Abstract | CrossRef Full Text | Google Scholar

Mossbridge, J., Tressoldi, P. E., Utts, J., Ives, J., Radin, D., and Jonas, W. (2014). Predicting the unpredictable: critical analysis and practical implications of predictive anticipatory activity. Front. Hum. Neurosci. 8:146. doi: 10.3389/fnhum.2014.00146

PubMed Abstract | CrossRef Full Text | Google Scholar

Moulton, S., and Kosslyn, S. M. (2008). Using neuroimaging to resolve the psi debate. J. Cogn. Neurosci. 20, 182″“192. doi: 10.1162/jocn.2008.20009

PubMed Abstract | CrossRef Full Text | Google Scholar

Nosek, B. A., Aarts, A. A., Anderson, C. J., Anderson, J. E., and Kappes, H. B. Open Science Collaboration (2015). Estimating the reproducibility of psychological science. Science 349:aac4716. doi: 10.1126/science.aac4716

CrossRef Full Text | Google Scholar

Pallikari, F., and Boller, E. (1997). Further evidence for a statistical balancing in probabilistic systems influenced by the anomalous effect of conscious intention. J. Soc. Psychol. Res. 62, 114″“137.

Google Scholar

Palmer, J. (1997). The challenge of experimenter psi. Eur. J. Parapsychol. 13, 110″“125.

Google Scholar

Palmer, J. (2016). Hansel»™s ghost: resurrection of the experimenter fraud hypothesis in parapsychology. J. Parapsychol. 80, 5″“16.

Google Scholar

Parker, A., and Millar, B. (2014). Revealing psi secrets: successful experimenters seem to succeed by using their own psi. J. Parapsychol. 78, 39″“55.

Google Scholar

Pashler, H., and Harris, C. R. (2012). Is the replicability crisis overblown? Three arguments examined. Perspect. Psychol. Sci. 7, 531″“536. doi: 10.1177/1745691612463401

PubMed Abstract | CrossRef Full Text | Google Scholar

Popper, K. (1934). The logic of scientific discovery. New York: Routledge.

Google Scholar

Protzko, J., and Schooler, J. W. (2017). «Decline effects: types, mechanisms, and personal reflections» in Psychological science under scrutiny: Recent challenges and proposed solutions. eds. S. O. Lilienfeld and I. D. Waldman (New Yersey: Wiley-Blackwell).

Google Scholar

Rabeyron, T. (2014). Retro-priming, priming, and double testing: psi and replication in a test-retest design. Front. Hum. Neurosci. 8:154. doi: 10.3389/fnhum.2014.00154

PubMed Abstract | CrossRef Full Text | Google Scholar

Rabeyron, T. (2020). Clinique des expériences exceptionnelles. Paris: Dunod.

Google Scholar

Rabeyron, T., and Loose, T. (2015). Anomalous experiences, trauma, and symbolization processes at the Frontiers between psychoanalysis and cognitive neurosciences. Front. Psychol. 6:1926. doi: 10.3389/fpsyg.2015.01926

PubMed Abstract | CrossRef Full Text | Google Scholar

Rabeyron, T., Rowe, C., Mousseau, M. C., and Deledalle, A. (2018). Anomalous experiences, mental health, and creativity: is psi the missing link? J. Conscious. Stud. 25, 207″“232.

Google Scholar

Rabeyron, T., and Watt, C. (2010). Paranormal experiences, mental health and mental boundaries, and psi. Pers. Individ. Differ. 48, 487″“492. doi: 10.1016/j.paid.2009.11.029

CrossRef Full Text | Google Scholar

Radin, D. (2006). Entangled minds: Extrasensory experiences in a quantum reality. New York: Paraview Pocket Books.

Google Scholar

Radin, D. (2018). Real magic: Ancient wisdom, modern science, and a guide to the secret power of the universe. New York: Harmony.

Google Scholar

Rao, K. R., and Palmer, J. (1987). The anomaly called psi: recent research and criticism. Behav. Brain Sci. 10, 539″“551. doi: 10.1017/S0140525X00054455

CrossRef Full Text | Google Scholar

Reber, A. S., and Alcock, J. E. (2020). Searching for the impossible: parapsychology»™s elusive quest. Am. Psychol. 75, 391″“399. doi: 10.1037/amp0000486

PubMed Abstract | CrossRef Full Text | Google Scholar

Rhine, J. B. (1952). The problem of psi-missing. J. Parapsychol. 16, 90″“129.

Google Scholar

Rhine, J. B., Pratt, J. G., Smith, B. M., Stuart, C. E., and Greenwood, J. A. (1966). Extra-sensory perception after sixty years. Boston: Bruce Humphries Publishers.

Google Scholar

Rhine-Feather, S., and Schmicker, M. (2005). The gift: The extraordinary experiences of ordinary people. New York: St. Martin»™s Paperbacks.

Google Scholar

Ritchie, S. J., Wiseman, R., and French, C. C. (2012). Failing the future: three unsuccessful attempts to replicate bem»™s «˜retroactive facilitation of recall»™ effect. PLoS One 7:e33423. doi: 10.1371/journal.pone.0033423

PubMed Abstract | CrossRef Full Text | Google Scholar

Romero, F. (2019). Philosophy of science and the replicability crisis. Philos Compass 14:e12633. doi: 10.1111/phc3.12633

CrossRef Full Text | Google Scholar

Savalei, V., and Dunn, E. (2015). Is the call to abandon p-values the red herring of the replicability crisis? Front. Psychol. 6:245. doi: 10.3389/fpsyg.2015.00245

PubMed Abstract | CrossRef Full Text | Google Scholar

Schlitz, M. J., and Honorton, C. (1992). Ganzfeld psi performance within an artistically gifted population. J. Am. Soc. Psychol. Res. 86, 83″“98.

Google Scholar

Schlitz, M. J., Wiseman, R., Watt, C., and Radin, D. (2006). Of two minds: skeptic-proponent collaboration within parapsychology. Br. J. Psychol. 97, 313″“322. doi: 10.1348/000712605X80704

PubMed Abstract | CrossRef Full Text | Google Scholar

Schooler, J. (2011). Unpublished results hide the decline effect. Nature 470:437. doi: 10.1038/470437a

PubMed Abstract | CrossRef Full Text | Google Scholar

Schooler, J. W., Baumgart, S., and Franklin, M. (2018). Entertaining without endorsing: the case for the scientific investigation of anomalous cognition. Psychol. Conscious. 5, 63″“77. doi: 10.1037/cns0000151

CrossRef Full Text | Google Scholar

Schwartz, S. (2001). The Alexandria project. Bloomington: IUniverse.

Google Scholar

Schwartz, S. (2007). Opening to the infinite. Virginia Beach: Nemoseen Media.

Google Scholar

Sheldrake, R. (2004). «Animal psi» in Parapsychology: Research on exceptional experiences. ed. J. Henry (London: Routledge).

Google Scholar

Sherwood, S. J., and Roe, C. A. (2003). A review of dream ESP studies conducted since the Maimonides dream ESP programme. J. Conscious. Stud. 10, 85″“109.

Google Scholar

Simmons, J. P., Nelson, L. D., and Simonsohn, U. (2011). False-positive psychology undisclosed flexibility in data collection and analysis allows presenting anything as significant. Psychol. Sci. 22, 1359″“1366. doi: 10.1177/0956797611417632

PubMed Abstract | CrossRef Full Text | Google Scholar

Simmonds-Moore, C. A., Alvarado, C. S., and Zingrone, N. L. (2019). A survey exploring synesthetic experiences: exceptional experiences, schizotypy, and psychological well-being. Psychol. Conscious. 6, 99″“121. doi: 10.1037/cns0000165

CrossRef Full Text | Google Scholar

Smith, M. (2003). The role of the experimenter in parapsychological research. J. Conscious. Stud. 10, 69″“84.

Google Scholar

Storm, L., Tressoldi, P., and Risio, L. D. (2010). Meta-analysis of free-response studies, 1992″“2008: assessing the noise reduction model in parapsychology. Psychol. Bull. 136, 471″“485. doi: 10.1037/a0019457

PubMed Abstract | CrossRef Full Text | Google Scholar

Thalbourne, M. A. (2000). Transliminality: a review. Int. J. Parapsychol. 11, 1″“34.

Google Scholar

Tressoldi, P. E., and Utts, J. (2015). «Statistical guidelines for empirical studies» in Parapsychology: A handbook for the 21st century. eds. E. Cardeña, J. Palmer, and D. Marcusson-Clavertz (Jefferson: McFarland).

Google Scholar

Utts, J. (1996). An assessment of the evidence for psychic functioning. J. Sci. Explor. 10, 3″“30. doi: 10.30891/jopar.2018.03.10

CrossRef Full Text | Google Scholar

Utts, J., and Tressoldi, P. E. (2019). Invited editorial methodological and statistical recommendations: option or necessity? J. Parapsychol. 83, 120″“122. doi: 10.30891/jopar.2019.02.02

CrossRef Full Text | Google Scholar

Wagenmakers, E. -J., Wetzels, R., Borsboom, D., Kievit, R. A., and van der Maas, H. L. (2015). «A skeptical eye on psi» in Extrasensory perception: Support, skepticism, and science. eds. E. C. May and S. B. Marwaha (Westport: Praeger).

Google Scholar

Wagenmakers, E., Wetzels, R., Borsboom, D., and Van der Maas, H. (2011). Why psychologists must change the way they analyze their data: the case of psi: comment on Bem (2011). J. Pers. Soc. Psychol. 100, 426″“432. doi: 10.1037/a0022790

PubMed Abstract | CrossRef Full Text | Google Scholar

Walach, H. (2000). Magic of signs: a non-local interpretation of homeopathy. Br. Homeopath. J. 89, 127″“140. doi: 10.1054/homp.1999.0413

PubMed Abstract | CrossRef Full Text | Google Scholar

Walach, H., Horan, M., Hinterberger, T., and von Lucadou, W. (2019). Evidence for anomalistic correlations between human behavior and a random event generator: result of an independent replication of a micro-PK experiment. Psychol. Conscious. 7, 173″“188. doi: 10.1037/cns0000199

CrossRef Full Text | Google Scholar

Walach, H., and von Stillfried, N. (2011). Generalised quantum theory»”basic idea and general intuition: a background story and overview. Axiomathes 21, 185″“209. doi: 10.1007/s10516-010-9145-5

CrossRef Full Text | Google Scholar

Watt, C., and Kennedy, J. E. (2015). Lessons from the first two years of operating a study registry. Front. Psychol. 6:173. doi: 10.3389/fpsyg.2015.00173

PubMed Abstract | CrossRef Full Text | Google Scholar

Watt, C., and Kennedy, J. E. (2017). Options for prospective meta-analysis and introduction of registration-based prospective meta-analysis. Front. Psychol. 7:2030. doi: 10.3389/fpsyg.2016.02030

PubMed Abstract | CrossRef Full Text | Google Scholar

Watt, C., and Kennedy, J. E. (2019). The American statistician special issue on statistical inference. J. Parapsychol. 83, 283″“285. doi: 10.30891/jopar.2019.02.14

CrossRef Full Text | Google Scholar

West, D. J., and Fisk, G. W. (1953). A dual ESP experiment with clock cards. J. Soc. Psychol. Res. 37, 185″“197.

Google Scholar

Wiggins, B. J., and Chrisopherson, C. D. (2019). The replication crisis in psychology: an overview for theoretical and philosophical psychology. J. Theor. Philos. Psychol. 39, 202″“217. doi: 10.1037/teo0000137

CrossRef Full Text | Google Scholar

Wigner, E. P. (1963). The problem of measurement. Am. J. Phys. 31, 6″“15. doi: 10.1119/1.1969254

CrossRef Full Text | Google Scholar

Wiseman, R. (2010). Heads i win, tails you lose: how parapsychologists nullify null results. Skeptical Inquirer 34, 36″“39.

Google Scholar

Witte, E. H., and Zenker, F. (2017). From discovery to justification: outline of an ideal research program in empirical psychology. Front. Psychol. 8:1847. doi: 10.3389/fpsyg.2017.01847

PubMed Abstract | CrossRef Full Text | Google Scholar

Keywords: psi, precognition, replicability crisis, pre-registration, methodology

Citation: Rabeyron T (2020) Why Most Research Findings About Psi Are False: The Replicability Crisis, the Psi Paradox and the Myth of Sisyphus. Front. Psychol. 11:562992. doi: 10.3389/fpsyg.2020.562992

Received: 17 May 2020; Accepted: 28 August 2020;

Published: 18 September 2020.

Edited by:

Barbara Hanfstingl, Alpen-Adria-Universität Klagenfurt, Austria

Reviewed by:

Walter Erich Manfred Von Lucadou, Independent Researcher, Freiburg, Germany

Marc Wittmann, Institute for Frontier Areas of Psychology and Mental Health (IGPP), Germany

Copyright © 2020 Rabeyron. This is an open-access article distributed under the terms of the Creative Commons Attribution License (CC BY). The use, distribution or reproduction in other forums is permitted, provided the original author(s) and the copyright owner(s) are credited and that the original publication in this journal is cited, in accordance with accepted academic practice. No use, distribution or reproduction is permitted which does not comply with these terms.

*Correspondence: Thomas Rabeyron, thomas.rabeyron@gmail.com

https://www.frontiersin.org/articles/10.3389/fpsyg.2020.562992/full


[1] Ver https://koestlerunit.wordpress.com/study-registry/

[2] Los resultados se publicarán en Royal Society Open Science. Más detalles aquí: https://psyarxiv.com/uwk7y/

[3] Otro enfoque original consiste en determinar marcadores biológicos y genéticos de psi. Entonces, el objetivo no es demostrar la existencia de psi sino más bien describir sus fundamentos biológicos. Por ejemplo, se pueden evaluar los aspectos fenomenológicos y neurobiológicos de la sinestesia (Eagleman et al., 2007), y la psi puede tener mucho en común con la sinestesia (Simmonds-Moore et al., 2019). Entonces, si no se puede explicar la naturaleza profunda de psi, se podrían determinar marcadores confiables correlacionados con su expresión utilizando estudios de resonancia magnética funcional o EEG para encontrar neuro-correlatos de psi (Moulton and Kosslyn, 2008). Pero es necesario mejorar el nivel de investigación en este dominio (Acunzo et al., 2013), y se debe demostrar que estas correlaciones en los resultados de fMRI no son efectos psi. El análisis genético también podría ser relevante para detectar participantes seleccionados y representar un área de investigación particularmente prometedora. También es interesante observar que se han realizado varios descubrimientos importantes al trabajar con organismos simples. Un ejemplo famoso lo ha dado un premio Nobel, Kandel (2007), quien ha descubierto aspectos moleculares de los procesos de la memoria gracias a Aplysia californica, una pequeña babosa de mar, equipada con un sistema nervioso muy simple (solo 20,000 neuronas). Si psi no es una especificidad de la conciencia humana y se comparte con otras especies (Sheldrake, 2004), podría ser relevante buscar el equivalente de A. californica para la investigación psi, que es un sistema biológico simple (plantas, animales, etc.) que permitiría manipular diferentes variables e ir más allá de los estudios correlacionales.

[4] En este sentido, parece que lo que se observa a nivel macro se acerca a lo que describen los físicos a nivel cuántico sobre la influencia del observador. El MPI se basa en un formalismo matemático, la «Teoría cuántica generalizada (o débil)» (GQT; Filk and Römer, 2011; Walach and von Stillfried, 2011) que utiliza el modelo matemático cuántico como metáfora. Pero este modelo no pretende que psi sea un fenómeno cuántico. Más bien supone que varios aspectos del formalismo cuántico (por ejemplo, la no conmutatividad), que son muy útiles en física, también podrían ser relevantes para describir los procesos psi.

Por qué la mayoría de los resultados de las investigaciones sobre Psi son falsos (1)

Por qué la mayoría de los resultados de las investigaciones sobre Psi son falsos: la crisis de replicabilidad, la paradoja de Psi y el mito de Sísifo

Front. Psychol., 18 de septiembre de 2020 | https://doi.org/10.3389/fpsyg.2020.562992

Thomas Rabeyron1,2 *

1Université de Lorraine, Interpsy, Nancy, Francia

2Universidad de Edimburgo, KPU, Edimburgo, Reino Unido

La crisis de replicabilidad en psicología ha sido influenciada por los resultados de nueve experimentos realizados por Bem (2011) y presentados como apoyo a la existencia de la precognición. En este artículo, esperamos mostrar cómo el debate sobre estos experimentos podría ser una oportunidad para desarrollar un pensamiento original sobre psicología y replicabilidad. Después de algunas observaciones preliminares sobre psi y epistemología científica, examinamos cómo los resultados de psi conducen a una paradoja que cuestiona cuán apropiado es el método científico para la investigación de psi. Esta paradoja pone de relieve un problema en la forma en que se llevan a cabo los experimentos en la investigación psi y su posible consecuencia en la investigación general en psicología. A continuación, se analizan dos experimentos clásicos, el protocolo Ganzfeld y los estudios Bem, para ilustrar esta paradoja y sus consecuencias. La investigación convencional también se aborda en el contexto más amplio de la crisis de replicación, el efecto de declive y las prácticas de investigación cuestionables. En conclusión, se proponen varias perspectivas para la investigación futura y subrayan el valor heurístico de los estudios psi para la psicología.

Crisis de replicabilidad e investigación psi

La crisis de replicabilidad ha sido ilustrada por los resultados de nueve experimentos realizados por Bem (2011) y reportados en el Journal of Personality and Social Psychology que apoyan la existencia de la precognición. Como explica Romero (2019) «aunque el hallazgo persuadió a muy pocos científicos, la controversia generó desconfianza en las formas en que los psicólogos realizan sus experimentos porque Bem utilizó procedimientos y herramientas estadísticas que utilizan muchos psicólogos sociales» (p. 3). De hecho, si Bem pudo demostrar la existencia de la precognición, y dado que la precognición no puede existir para muchos psicólogos (Reber and Alcock, 2020), ¿demostró inconscientemente que algo andaba profundamente mal en la forma en que se llevan a cabo los experimentos en el campo de la psicología (Wiggins and Chrisopherson, 2019)? Se han publicado muchos artículos relevantes desde la publicación inicial de Bem (Pashler and Harris, 2012; Savalei and Dunn, 2015) sobre la crisis de la replicabilidad, las estadísticas bayesianas (Witte and Zenker, 2017) y las prácticas de investigación cuestionables (QRP; Wagenmakers et al., 2011; Bierman et al., 2016). En el presente artículo, nos gustaría sugerir que este debate podría ser una oportunidad para desarrollar un pensamiento original sobre psicología y replicabilidad. En este sentido, mostraremos que los estudios de Bem no son un «accidente» aislado, sino que están insertados en una larga tradición de investigación que trata de abordar problemas epistemológicos complejos sobre la naturaleza de la realidad y la conciencia humana. Específicamente, argumentaremos que las controversias sobre la existencia de psi podrían ser muy informativas sobre los estudios de psicología y conciencia.

La investigación psi puede considerarse como un subcampo de los estudios de conciencia que se ocupan de las interacciones entre los individuos y su entorno que trasciende las limitaciones ordinarias del espacio-tiempo (Bem and Honorton, 1994; Radin, 2006; Irwin and Watt, 2007; Cardeña, 2018). Desde hace más de un siglo se han desarrollado diferentes líneas de investigación para abordar la psi utilizando investigación experimental (Rhine et al., 1966), casos espontáneos (Rhine-Feather and Schmicker, 2005), casos clínicos (Rabeyron, 2020), participantes seleccionados[1] (Méheust, 1999; Braude, 2007) y aplicaciones (Schwartz, 2001, 2007; May et al., 2018). Varios metanálisis de estudios realizados en condiciones controladas examinan los sueños precognitivos (es = 0,14; Sherwood and Roe, 2003), la telepatía (es = 0,14; Storm et al., 2010) y el presentimiento (es = 0,21; Mossbridge et al., 2012) y han demostrado efectos estadísticamente significativos. La investigación de Bem (2011) sobre precognición[2] publicada en el JPSP no es, por tanto, aislada. Puede considerarse como la lógica de la evolución de la investigación psi previa.

Si bien estos resultados apoyan la existencia de una experiencia/comportamiento anómalo consistente que ha sido etiquetado como «psi», actualmente no hay consenso en la comunidad científica con respecto a su interpretación y hasta ahora han surgido dos posiciones principales. Los «escépticos» suponen que son consecuencia de errores, sesgos y diferentes formas de QRP (Alcock, 2003; Alcock et al., 2003; Hyman, 2010; Wiseman, 2010; Wagenmakers et al., 2011; Reber and Alcock, 2020). Los «proponentes» argumentan que estos resultados prueban la existencia de psi más allá de toda duda razonable y que las nuevas investigaciones deberían pasar al análisis de los procesos psi en lugar de más intentos de probar su existencia (Radin, 2006; Cardeña et al., 2015; Cardeña, 2018). Esta ausencia de consenso está relacionada con la dificultad de sacar conclusiones firmes de los resultados de la investigación psi. De hecho, representan una anomalía (Rao and Palmer, 1987) porque actualmente no existe un modelo científico, basado en principios físicos o biológicos, que explique tales interacciones, incluso si existen (Kuhn, 1962)[3]. Sin embargo, sea cual sea la explicación correcta, los resultados de la investigación psi pueden ser informativos para las ciencias psicológicas más amplias (Schooler et al., 2018). De hecho, conducen a dos hipótesis opuestas pero muy heurísticas: (a) dentro de este campo de investigación, que ha sido realizado por cientos de investigadores cuyos esfuerzos críticos abarcan más de un siglo, los investigadores han sido fraudulentos o han sido engañados, incluso cuando utilizando las herramientas más fiables de la investigación científica y (b) psi existe y la conciencia humana puede interactuar con su entorno más allá de los límites habituales del espacio y el tiempo. Este artículo explorará estas dos hipótesis y sus consecuencias para la investigación psi y la psicología en general.

¿Y si»¦ Psi realmente existe? La paradoja psi

La historia de la ciencia ha mostrado muchos ejemplos de fenómenos que fueron observados de manera confiable pero que fueron rechazados por la comunidad científica porque no eran explicables en el momento de su observación (por ejemplo, meteoritos, latidos del corazón, etc.). En consecuencia, sería prudente tener cuidado al considerar resultados anómalos de la variedad psi, especialmente sabiendo que 22 ganadores del Premio Nobel, científicos destacados y figuras de la vida intelectual han informado sobre tales experiencias y se posicionaron a favor de su existencia (Méheust, 1999)[4]. Por tanto, si suponemos, al menos por un momento, que existen elementos suficientes para tomar en serio la hipótesis de que la opción (b) es verdadera, es decir, psi realmente existe, ¿cuáles son las consecuencias de tal suposición? ¿Podría dar sentido a otras observaciones en el campo de la psicología y otros dominios científicos? ¿Y cambia la forma en que se debe realizar la investigación científica?

Los estudios psi, vistos como un todo, sugieren que es posible una especie de interacción «directa» (consciente o inconsciente) entre los seres humanos individuales y su entorno. Esta interacción se refiere a eventos u objetos situados a distancia en el espacio y el tiempo (Mossbridge and Radin, 2018). Puede tomar muchas formas (instinto, comportamiento, representación mental, etc.) con diferentes intensidades (por ejemplo, una emoción pequeña o fuerte). Puede ser perceptivo (del entorno a la persona) o proyectivo (de la persona al entorno). Puede estar asociado a una transferencia de información o, más bien, a algo que parece una transferencia de información (Lucadou et al., 2007). Emerge más fácilmente durante estados alterados de conciencia (Storm et al., 2010), es más pronunciado para algunas personas (Schlitz and Honorton, 1992) y tiende a emerger durante o después de eventos traumáticos (Rabeyron and Loose, 2015). Esta interacción directa se asocia más generalmente con experiencias paranormales subjetivas (por ejemplo, experiencias cercanas a la muerte y experiencias extracorporales) incluso si no se superponen por completo (Rabeyron et al., 2018). Además, incluso si no se comprende bien el papel de la conciencia en los procesos psi, es probable que la atención (McMoneagle and May, 2014), la memoria (Carpenter, 2012), la creatividad (Holt, 2012), los rasgos de personalidad (Thalbourne, 2000) , la creencia (Lawrence, 1993) y los aspectos psicodinámicos (Rabeyron and Loose, 2015) son componentes de ella.

Estos resultados de la investigación psi construyen una paradoja específica que es el meollo del presente artículo. Esta paradoja llevaría a la conclusión de que la mayoría de los hallazgos de la investigación psi son falsos (o inapropiados), pero no por las razones que generalmente suponen los escépticos. En primer lugar, debemos recordar que la investigación científica se basa en el principio de que, en general, el investigador (el observador) está separado o es independiente de la variable dependiente. El investigador trata de no afectar el resultado de un experimento de modo que lo que se observa varía con la variable independiente que se está probando y es independiente de los pensamientos, intenciones, creencias o incredulidad del investigador. Se supone que esta suposición permite a otros científicos demostrar el mismo resultado en las mismas condiciones (o no, según sea el caso). Este es el marco lógico y epistemológico en el que suele realizarse la investigación científica. Este modelo funciona muy bien y ha producido mucho conocimiento científico y progreso tecnológico confiables. Incluso si esta es una visión simplista de la forma en que avanza la investigación científica, como lo muestra la epistemología de la ciencia (Feyerabend, 1975; Chalmers, 1979), tal representación de la investigación científica es, no obstante, un principio útil que guía a los científicos hacia las buenas prácticas.

Sin embargo, si es posible una interacción directa (en el sentido descrito anteriormente) entre una persona y su entorno, este principio también podría influir en el resultado de experimentos que pretendan utilizar los principios científicos, porque podría haber una interacción directa entre los científicos (el observador) y su objeto de estudio (lo observado). Por tanto, si existe psi, el problema es el siguiente: podría ser posible una interacción «directa», advertida o inadvertida, entre el investigador y el objeto de estudio. Esto destruye las condiciones necesarias para la demostración científica convincente de la psi misma.

Esto conduce a las siguientes paradojas: (1) si la existencia de psi se prueba en un entorno científico clásico, entonces demuestra retroactivamente que este ajuste es inapropiado porque psi implica que no hay un «corte» claro entre el observador y lo observado. (2) Entonces, si esta suposición del entorno científico es inapropiada (debido a psi), entonces este ajuste no se puede utilizar para probar la existencia de psi. Pero, entonces, como no se puede probar psi, ¡el escenario científico en sí parece ser todavía apropiado! En consecuencia, podemos intentar usar el entorno científico para probar la existencia de psi, pero ahora estamos de nuevo en (1), lo que conduce a (2), y sigue lógicamente un bucle paradójico infinito entre (1) y (2) . Muestra de manera más general que el principio en el que se basa un experimento científico para estudiar psi, la separación ontológica entre el observador y lo observado, sería erróneo. En consecuencia, ningún conocimiento científico en este campo de investigación podría producirse tan pronto como no haya una distinción clara entre el observador y lo observado. De hecho, no hay forma de saber, por razones epistemológicas, si lo que se observa es un efecto inducido por el experimentador (debido a una posible influencia psi) o una característica del fenómeno independientemente del experimentador. La distinción entre expectativas y realidad no está clara, y el investigador psi que utiliza este enfoque solo puede convertirse en una versión moderna de Sísifo[5], como se mostrará más adelante.

Dos ejemplos de la literatura: el protocolo de Ganzfeld y los estudios de Bem

El experimento de Ganzfeld, el protocolo más clásico en la investigación psi (Bem and Honorton, 1994), proporciona un ejemplo interesante del razonamiento anterior. Durante este experimento, un participante (el receptor) está cómodamente sentado en una silla, con una máscara que le muestra un campo visual uniforme (generalmente rojo) mientras escucha un ruido blanco. El participante se encuentra inmerso en un campo sensorial constante y neutral que genera rápidamente un estado alterado de conciencia que se supone favorece las percepciones psi (Storm et al., 2010). Después de 20 min, el participante intenta encontrar, entre varias imágenes o videos (generalmente, el objetivo correcto y tres objetivos alternativos), el que fue «transmitido» telepáticamente por otro participante (el remitente) ubicado en otra habitación. Como muestra la literatura, se ha obtenido una tasa de éxito promedio del 33% en la elección del receptor en lugar del 25% solo por casualidad (Storm et al., 2010). Por tanto, se ha demostrado una correlación significativa entre las elecciones de los receptores y los objetivos mostrados a los remitentes. Pero, ¿qué más se ha aprendido? ¿Este experimento demuestra la existencia de la telepatía?

No, porque no se puede probar de manera definitiva. Se pueden proponer diferentes interpretaciones en competencia, pero no se pueden aislar ni confirmar. De hecho, no hay forma de proponer una afirmación falsable o establecer un experimento crucial (Popper, 1934). Por ejemplo, ¿es un efecto telepático (el remitente «envía» el objetivo y el receptor lo «recibe») o un efecto precognitivo (el receptor realmente percibe al objetivo del «futuro» cuando se le presentan los cuatro objetivos posibles? al final de la sesión y se le pide que elija)? Para probar esta hipótesis, se puede configurar un experimento en el que se le da retroalimentación a la mitad de los receptores (ven el objetivo correcto después del estado de Ganzfeld) y no se le da retroalimentación a la mitad de los receptores (no ven el objetivo correcto y, en su lugar, un juez ciego evalúa la correlación entre las mentalidades del receptor y los cuatro posibles objetivos)[6]. Si suponemos que se obtiene un efecto significativo solo para los ensayos de retroalimentación, ¿prueba la hipótesis precognitiva? No es así, porque incluso si este experimento se repitió 50 veces con los mismos resultados y utilizando las mejores condiciones experimentales, no hay forma de saber si este efecto es una consecuencia de (1) un efecto precognitivo, (2) una influencia psi de los participantes, (3) un efecto psi del experimentador en la computadora que elige el objetivo, y (4) ¡muchas otras opciones! Porque tan pronto como no hay un límite claro entre el experimentador, el participante y la metodología, todo se vuelve posible.

Otra posibilidad es que algunos experimentadores puedan influir constantemente en los datos experimentales y, por lo tanto, obtengan resultados significativos. Esta variable en sí misma ha sido el foco de una considerable investigación (Broughton, 1979; Palmer, 1997; Parker and Miller, 2014)[7]. Se puede probar durante un experimento de Ganzfeld trabajando con 10 experimentadores diferentes y comparando sus resultados. Pero incluso si una correlación entre (por ejemplo) la creencia del experimentador (una medida de su posible influencia psi en la configuración) y el tamaño del efecto Ganzfeld, no se pudo llegar a una conclusión clara. Podría ser (1) el efecto del experimentador, (2) el efecto del analista del estudio (el que mira los datos primero), o (3) ¡muchas otras explicaciones potenciales! Este es nuevamente el mismo problema: si no hay un límite claro entre el experimentador, los participantes y la estructura científica, no hay afirmación falsable. Es importante destacar que este problema es infinito: cuando se introducen nuevas variables, sin una hipótesis claramente falsable (debido a la ausencia de un límite epistemológico entre el observador y lo observado), el problema existe. Esta falta de una clara causalidad atribuible es relevante para los resultados de la mayoría de los experimentos psi y es por eso que los efectos psi probablemente no sean lo que parecen. Pueden considerarse no concluyentes desde un punto de vista científico. Por lo tanto, no hay forma de estar seguro de que Ganzfeld sea una transferencia de información entre dos personas o que la precognición sea la capacidad de extraer información del futuro. Los estudios de Psi en realidad solo muestran que las correlaciones significativas entre dos variables, una intención y una medida, surgirán y tomarán diferentes formas dependiendo de las condiciones del entorno experimental.

Los experimentos recientes reportados por Bem (2011) sobre la anticipación anómala de eventos aleatorios ilustran perfectamente el problema que acabamos de describir. Bem (2011), que publica en una revista psicológica convencional, el Journal of Personality and Social Psychology, presentó los resultados de cuatro experimentos de psicología clásica (p. Ej., Tarea de preparación) que ha «revertido» para ver si los participantes se verían influenciados por estímulos no del pasado sino del futuro. Esta publicación provocó una controversia considerable entre los escépticos y los proponentes en la comunidad académica e incluso en varios medios de comunicación convencionales (Bem et al., 2011; Wagenmakers et al., 2011; Ritchie et al., 2012). Podemos resumir los diferentes pasos de este paradigma de investigación: (1) Bem (2011) muestra un efecto psi aparentemente confiable en condición controlada. Genera reacciones críticas de la comunidad en general (Wagenmakers et al., 2011). En cierto modo, estos críticos tienen razón: probablemente «sienten» que no parece un efecto clásico y tal vez entiendan intuitivamente las posibles consecuencias de este resultado para todo el campo de la psicología. (2) El experimento luego se replica en diferentes entornos (en línea, diferentes poblaciones, diferentes estímulos, etc.)[8]. A veces funciona, a veces no funciona (Galak et al., 2012; Ritchie et al., 2012). (3) Finalmente se publica un metaanálisis con un tamaño de efecto significativo, pero menor (es = 0.14), que la publicación original (es = 0.20; Bem et al., 2015)[9]. ¿Es porque: (a) el efecto realmente no existe; (b) el escenario de los nuevos experimentos era menos apropiado; (c) el proceso de replicación en sí mismo disminuye el efecto? (Lucadou, 1995; Kennedy, 2003); o (d) el efecto es en realidad la consecuencia de un efecto de experimentador descrito anteriormente? (Kennedy and Taddonio, 1976; Broughton, 1979; Palmer, 1997; Smith, 2003; Parker and Miller, 2014). Por tanto, es necesario un cuarto paso; y (4) se realiza simultáneamente un nuevo estudio en diferentes laboratorios para estudiar el impacto de las diferencias individuales de los experimentadores en los resultados. Pero este efecto en realidad podría depender del analista (es decir, el que mira los resultados por primera vez o analiza los datos) y no del experimentador (West and Fisk, 1953). Entonces, el siguiente paso de este paradigma de investigación podría ser (5) probar la magnitud del efecto con 10 experimentadores diferentes y 10 analistas diferentes.

Estos diferentes pasos muestran los posibles impedimentos que acosan a los investigadores de psi en sus esfuerzos por probar la existencia de psi, además de los resultados negativos y las críticas de los colegas de la corriente principal. E incluso si el investigador logra obtener resultados significativos en cada paso, como lo hizo Bem (2011) durante muchos años[10], siempre habrá nuevas demandas de la comunidad principal: más control del entorno experimental, más experimentos, más laboratorios, más herramientas estadísticas, etc., (Wagenmakers et al., 2015)[11]. Incluso cuando los proponentes logran acordar un protocolo claro con los escépticos y luego obtienen resultados significativos, como ha sido el caso de Ganzfeld (Hyman and Honorton, 1986; Bem and Honorton, 1994), nunca es suficiente. El problema subyacente es que incluso si se encuentra un efecto significativo en cada paso, no hay forma de concluir nada sobre la naturaleza del efecto y, en consecuencia, no hay forma de producir conocimiento científico sobre la fuente de psi (Broughton, 1979; Palmer, 1997): ¿es de los participantes? ¿Del experimentador? ¿Es de cada experimentador por separado? ¿O es una influencia más fuerte del primero que analiza los datos? ¿O tal vez el que originalmente concibió el experimento? ¿Hay grados de influencia entre el experimentador y los participantes según el tipo de experimento? Pero también, ¿es un efecto en el presente (durante el experimento) o es una influencia del futuro (después del experimento), o incluso del pasado, si psi puede trascender el espacio y el tiempo? No hay respuestas definitivas a estas preguntas, independientemente de los resultados que se obtengan y, por desgracia, no hay forma de responder a estas preguntas, hasta donde sabemos, porque solo hay interpretaciones plausibles. Fundamentalmente, el problema es que el marco epistemológico habitual de la investigación no es adecuado cuando se consideran las propiedades psi.

En este sentido, podría ser relevante dejar de hacer investigaciones cuyo objetivo sea probar la existencia de psi utilizando un entorno clásico (método científico), porque realmente no tiene sentido desde un punto de vista epistemológico. Se puede argumentar que esta metodología no puede producir nada nuevo incluso con una gran financiación y el paso de un siglo de investigación. Sin embargo, estos experimentos son relevantes en términos de ritual. Se puede utilizar una selección de experimentos psi clásicos, por ejemplo, los estudios de Ganzfeld, sueños o presentimientos, como ilustraciones de un fenómeno, reconociendo sus «limitaciones» y sin creer que alguna nueva explicación surgirá de ellos. Si se llevan a cabo con suficiente intención, motivación, novedad y creatividad, estos experimentos deberían seguir produciendo resultados significativos. Su interés es principalmente estratégico porque brinda la oportunidad de demostrar que psi puede replicarse y producir efectos significativos en condiciones controladas como lo demuestran varios metaanálisis (Cardeña, 2018).

Sin embargo, estos «estudios de demostración» podrían ser incluso más complicados si también tenemos en cuenta que los efectos psi tienden a desaparecer cuando se replica el mismo experimento, lo que se describe como la naturaleza esquiva de psi (Hansen, 2001; Kennedy, 2003). Cuando se configura un experimento psi, se propone una distinción entre dos variables o una hipótesis (verdadero/falso). Si otro experimento utiliza la misma hipótesis, muchos investigadores han informado que el efecto tiende a desaparecer (Kennedy, 2003)[12]. En este sentido, usar la misma hipótesis dos veces para un experimento psi podría ser como preguntarle a un comediante que intenta hacer reír al público con la misma broma dos veces. Las interacciones psi parecen ser la expresión de una novedad y la novedad, por definición, puede ser nueva solo una vez. Podría explicar los extraños resultados – inversión, desplazamiento y desaparición del efecto – que aparecen cuando se replica el mismo experimento (Lucadou, 1995). Para evitar esta dificultad, y siguiendo la metáfora de Sísifo, algunos investigadores toman una pequeña piedra (un experimento), la empujan hacia la montaña y luego hacen esto con otra piedra (otro experimento), pero no empujan la misma piedra dos veces para evitar demasiada «resistencia» que resultaría de la repetición del mismo experimento. No lo hacen porque el efecto no existe, como sugiere Wiseman (2010), sino como consecuencia de que esta es la única forma de mantener el efecto.

Debido a estas diferentes dificultades epistemológicas, los nuevos conocimientos en el campo de la investigación psi basados en el protocolo «clásico» no serían confiables e incluso los relacionados con la comprensión de los procesos psi. Por ejemplo, si los rasgos de personalidad están correlacionados con psi, ¿cómo estar seguro de que esto no es la consecuencia de la influencia psi del experimentador sobre qué rasgos de personalidad cree que favorecen a psi? Esto es igual para todos los parámetros que podrían correlacionarse con los resultados de psi[13]. Estas investigaciones no pueden producir conocimiento científico y, por lo tanto, pueden considerarse una pérdida de tiempo y energía de la misma manera que Sísifo dedica todo su tiempo a una tarea inútil e infinita. Algunos investigadores en el campo han reconocido este problema y han dejado de hacer este tipo de investigación experimental (Eisenbud, 1966, 1983). Otros entienden este problema y tratan de encontrar una manera de evitarlo con una configuración experimental específica (Lucadou et al., 2007; Walach and von Stillfried, 2011). Otros reconocen este problema, pero continúan haciendo investigaciones experimentales como esta porque este enfoque es relevante desde un punto de vista «político» y estratégico (Radin, 2018). Saben intuitivamente cómo realizar experimentos para mantener «vivo» un efecto psi a pesar de su naturaleza profundamente esquiva. Suponen que estos experimentos pueden ser útiles para convencer a toda la comunidad científica, y a un público más amplio, si se llevan a cabo de forma suficientemente rigurosa. Esto podría considerarse como un enfoque pragmático que utiliza las herramientas equivocadas para mostrar algo que podría ser cierto. Y otros investigadores no comprenden este problema y continúan haciendo este tipo de investigación, de la misma manera que lo hacía Rhine (1966), porque no sienten que haya otras opciones. Sería como un leñador que intenta talar árboles con una pluma diciendo que sigue haciéndolo porque esta es la única herramienta que tiene. Si tienen suerte, a pesar de la naturaleza inadecuada de la metodología de investigación, ocasionalmente obtendrán resultados significativos, pero también obtendrán resultados nulos. Si son resilientes, lo harán durante todas sus carreras y se convertirán en Sísifo, tratando de convencer a una comunidad científica que no cree en la existencia de lo que estudian. Como era de esperar, algunos de ellos dejarán de hacer investigación parapsicológica e incluso pueden volverse escépticos (Blackmore, 1987).

Crisis de replicabilidad, efecto de declive y psi

Como se mencionó en la introducción, la psicología y la medicina se han enfrentado durante más de 10 años a lo que se ha llamado la crisis de replicación o replicabilidad (Maxwell et al., 2015). Muestra que la magnitud de los tamaños del efecto en las réplicas de experimentos de psicología es la mitad del tamaño de los estudios originales y que solo el 36% del efecto puede ser replicable (Nosek et al., 2015). El mismo problema también es cierto para otros dominios, especialmente la investigación médica y de psicoterapia (Ioannidis, 2016a, b). Este es, por supuesto, un gran problema que muchos investigadores están tratando de resolver. Una de las hipótesis para explicar esta situación es que estos resultados podrían ser consecuencia de QRPs (John et al., 2012) y que la mayoría de estos estudios no habrían sido significativos si se hubieran realizado con más rigor (Simmons et al., 2011)[14]. En consecuencia, la conducta de «Ciencia» debe cambiar mejorando el uso, en particular, del prerregistro, mejores estadísticas y la publicación de resultados nulos.

La crisis de la replicación también ha subrayado un fenómeno llamado «efecto de declive» (Schooler, 2011; Simmons et al., 2011; Protzko and Schooler, 2017). Muestra que los diferentes efectos en psicología y medicina tienden a disminuir con el tiempo y el proceso de replicación, por ejemplo (ver Coyne and de Voogd, 2012; Gong and Jiao, 2019). En este sentido, es interesante notar que la comunidad psi ha reportado tal efecto de declive hace mucho tiempo (Kennedy, 2003). ¿Es el mismo efecto y cuál es su naturaleza? La mayoría de investigadores suponen que también es consecuencia del QRP[15] pero se podría proponer una hipótesis diferente; el problema subyacente de este efecto de disminución podría ser psi, si este último existe. Significa que es posible una relación directa entre una intención y la realidad. En consecuencia, cuando se establece la investigación general, la psi podría entrar en la ecuación incluso si no se la invita a la fiesta[16]. Cuando los investigadores desarrollan un nuevo protocolo o hipótesis, sus expectativas o intenciones pueden, a través de psi, inducir inconscientemente un resultado que favorezca su visión. Por lo tanto, cuando se prueba un nuevo efecto o un nuevo tratamiento, con, por ejemplo, un grupo de control, el investigador puede tener una influencia psi en varios puntos del diseño de la investigación[17], lo que podría comprometer la utilidad del grupo de control como condición de comparación. .

Como ejemplo de cómo esta influencia inesperada podría afectar los datos, May (1995) ha desarrollado la teoría del aumento de decisiones (DAT) para explicar los resultados de estudios en los que los participantes tenían que influir, únicamente por intención, en la salida de un generador de números aleatorios. (Bösch et al., 2006). May supone que no hay influencia física en este proceso y que el participante, utilizando habilidades precognitivas, elegirá (inconscientemente) el momento adecuado para presionar el botón con el fin de obtener el resultado significativo deseado[18]. De la misma forma, un investigador podría elegir inconscientemente el momento adecuado para iniciar el estudio, elegir los participantes, recolectar los datos, etc., para inducir un efecto de aleatoriedad. Desde este punto de vista, psi no induce una transferencia de energía ni se basa en una fuerza física conocida. Más bien organiza la realidad de manera discreta ordenando la aleatoriedad. En consecuencia, algunos de los efectos principales parecen efectos normales, pero no lo son. Solo cuando otros investigadores, que pueden no tener las mismas expectativas, creencias o intenciones, intentan replicarlos, estos efectos pueden desaparecer misteriosamente. Este no sería el efecto de QRP, sino la consecuencia de psi[19].

Se podría argumentar que si esta hipótesis es cierta, no hay posibilidad de acumular ningún conocimiento científico confiable. Pero este no es el caso porque todos los efectos observados no son atribuibles a psi; este último actúa como un «placebo extendido», es decir, más allá de la concepción clásica de la influencia del placebo, ver Lucadou, 2019, que produce fluctuaciones inesperadas en los datos. Pero cuando un efecto «real» y robusto es replicado por diferentes equipos de investigadores, debería resistir si este no es un efecto psi, y esto podría ser lo que sucedió durante el proyecto de reproducibilidad (Nosek et al., 2015). Así, todavía es posible demostrar la existencia de efectos, leyes o fuerzas «establecidos», «reales» o «clásicos» (que probablemente conciernen a la gran mayoría de la realidad) y, en este sentido, el modelo científico aún es totalmente relevante. Pero significa que los tamaños del efecto alrededor de 0.10 y 0.20, la magnitud habitual reportada en la literatura psi – en experimentos dentro de muchos dominios científicos, en realidad podría ser la consecuencia de psi[20].

La otra interpretación de los datos psi – que psi no existe, la «hipótesis nula» (Alcock, 2003) – también es interesante desde un punto de vista psicológico y sociológico. Como se propone en la introducción, sugeriría que cientos de investigadores (y notablemente más de 20 premios Nobel) han sido engañados durante más de un siglo, incluso cuando se utilizan las herramientas más fiables de la investigación científica. El efecto de estos resultados «ilusorios» ha sido tan convincente que incluso llevaron a aplicaciones prácticas (Schwartz, 2007; Mossbridge et al., 2014). Por ejemplo, el gobierno de los Estados Unidos intentó emplear psi durante más de 20 años durante un programa generalmente conocido como Stargate en el que se seleccionaba personal militar en función de sus supuestas habilidades psíquicas para adquirir información (por ejemplo, sobre sitios militares rusos) en un distancia (en espacio y tiempo; Hyman, 1996; Utts, 1996; May et al., 2018)[21]. La hipótesis nula significaría que el personal de las mejores agencias de inteligencia de Estados Unidos (CIA, NSA, etc.), varios oficiales militares que trabajan en este programa (algunos de los cuales fueron condecorados con la legión del mérito; McMoneagle and May, 2014), los principales científicos que han examinado el proyecto (en particular, un ex presidente de la Asociación Estadounidense de Estadística; Utts, 1996), e incluso el presidente de los Estados Unidos (Jimmy Carter admitió que se ha encontrado un avión militar Tu-22 perdido gracias al Stargate) han sido engañados por los resultados de 504 operaciones militares durante casi 20 años (1973-1995). Si se acepta esta interpretación de resultados significativos en experimentos psi, se puede deducir que otras áreas de investigación «acreditadas», que involucran a muchos investigadores, también podrían producir resultados ilusorios.


[1] Este fue el enfoque clásico de la investigación psíquica a principios del siglo XX, y ha ido desapareciendo progresivamente en favor de estudios con participantes no seleccionados (Méheust, 1999). Esto es problemático porque los datos sugieren que el método original es probablemente más relevante (Schlitz and Honorton, 1992; May et al., 2018). El enfoque que se basa en participantes no seleccionados produce tamaños de efecto pequeños que solo se pueden mostrar a nivel estadístico y, por lo tanto, se critica fácilmente y es menos convincente. Por el contrario, trabajar con participantes «dotados» tiende a producir efectos más importantes (Eisenbud, 1966; Braude, 2007). Tres ejemplos de este tipo de experimentos, llevados a cabo en condiciones de control, son: un caso histórico, con Alexis Didier que habría podido leer varias veces una palabra y frases en un libro a distancia (Méheust, 2003); las imágenes fueron realizadas por Ted Serios con una cámara polaroid mientras estaba encerrado en una jaula de Faraday (Eisenbud, 1966); y el experimento de Pearce-Pratt en el que Pearce ha podido adivinar a distancia las cifras correctas (entre cinco posibilidades) 25 veces seguidas (Rhine et al., 1966). El argumento que suelen proponer los escépticos para explicar tales resultados es que tanto el experimentador como el participante estaban haciendo trampa (Hansel, 1961; Palmer, 2016).

[2] Un metaanálisis sobre este efecto también alcanzó un tamaño de efecto estadístico significativo (es = 0.14; Bem et al., 2015).

[3] La investigación psi no es única en este sentido. Se puede argumentar que muchos efectos en psicología no tienen una explicación subyacente desde un punto de vista biológico o físico. Pero estos efectos «clásicos» se aceptan fácilmente porque no cuestionan el conocimiento de estos dominios, que es el caso de psi. De hecho, no es habitual que la psicología diga algo sobre la realidad que pueda contradecir a las ciencias que estudian la materia y los organismos vivos.

[4] Ver https://psi-encyclopedia.spr.ac.uk/articles/eminent-people-interested-psi

[5] Como se sugerirá más adelante en este documento, los investigadores de psi pueden tener la posibilidad de evitar este camino.

[6] De hecho, el 18% de los estudios de Ganzfeld se han realizado sin un remitente y la mayoría de ellos todavía obtienen resultados significativos (Storm et al., 2010).

[7] Algunos investigadores ya han intentado hacer esto con un experimento en el que los participantes tenían que influir mentalmente en la actividad electrodérmica de otro participante (Schlitz et al., 2006).

[8] Por ejemplo, hemos replicado el experimento de retrocebado diseñado por Bem cuatro veces con un total de 344 participantes (t = 0.92; d = 0.049; IC = −0.016, 0.16; p = 0.360; Rabeyron and Watt, 2010; Rabeyron, 2014; Rabeyron et al., 2018). Uno de los experimentos también se ha realizado con una población compuesta por artista con el fin de incrementar el efecto pero no se ha obtenido ningún resultado significativo (Rabeyron et al., 2018).

[9] Este metanálisis también muestra que las replicaciones exactas son significativas (es = 0,8) y que el efecto proviene principalmente del protocolo de pensamiento rápido (es = 0,11). El protocolo replicado con más éxito ha sido la detección precognitiva de refuerzo (es = 0,14). Para un crítico de este metanálisis, consulte Lakens (2015).

[10] Bem ya había propuesto resultados significativos sobre psi desde la década de 1990 con los estudios de Ganzfeld (Bem and Honorton, 1994), incluso después de tener en cuenta los comentarios de los críticos.

[11] El filósofo francés Méheust (1999) propone una metáfora para describir este proceso cercana a la imagen de Sísifo. Él describe la investigación psi como un suéter que se deshace constantemente. Cada nueva generación tiene que «volver a tejer» para mantener la existencia del suéter porque constantemente son necesarias nuevas pruebas en función de la evolución de la metodología científica.

[12] Lo que, por supuesto, podría interpretarse de manera más simple como la prueba de la inexistencia de psi y el «argumento elusivo» podría considerarse como una hipótesis post-hoc para explicar resultados no significativos. Es por eso que actualmente los investigadores intentan demostrar este aspecto esquivo de psi (Maier et al., 2018; Maier and Dechamps, 2018), pero ¿es posible demostrar algo que se supone que es esquivo?

[13] Por ejemplo, se ha desarrollado una línea de investigación para determinar si la naturaleza de los objetivos durante un experimento psi podría influir en la calidad de los resultados. Se ha encontrado una correlación significativa entre las descripciones de los participantes y el grado de entropía del objetivo (por ejemplo, una imagen) desde un punto de vista informativo (May et al., 2000). Pero, ¿es un efecto «real» o la consecuencia psi de la creencia de los experimentadores (quienes, como físicos, interpretan lo que está sucediendo en términos familiares para ellos)?

[14] Como explica Cardeña (2019, p. 117-118), este problema de replicabilidad debido a errores estadísticos no es nuevo y ya ha sido descrito muchas veces desde la década de 1960: «Al igual que las mareas de los restos flotantes, la ciencia descubre «˜de nuevo»™ errores del tercer tipo, término de Schlaiffer para el mal uso y la mala interpretación de los procedimientos estadísticos además de los errores de Tipo I y II (…) ¿Se han vuelto los científicos más perspicaces recientemente sobre los problemas de las aplicaciones inconscientes de los procedimientos estadísticos y de investigación? No, solo están reiterando ideas que llevan más de medio siglo».

[15] La hipótesis QRP ha sido evaluada por Bierman (2016) empleando la base de datos Ganzfeld. Concluye que los resultados probablemente estén inflados debido al QRP, pero que aún son significativos (p = 0.003). Entonces, la hipótesis QRP no es suficiente para explicar los resultados de Ganzfeld y, por implicación, los resultados de muchos experimentos psi.

[16] Se han vuelto a analizar los experimentos clásicos de la corriente principal teniendo en cuenta la hipótesis psi, lo que a veces ha dado lugar a resultados significativos. Por ejemplo, Bierman (2000) ha encontrado un efecto presentimiento en los datos de los experimentos clásicos de Antonio Damasio.

[17] Los investigadores suelen tener una intención particularmente fuerte hacia sus resultados porque su capacidad para publicar en una buena revista, y su propia carrera, depende de los resultados que obtendrán. Paradójicamente, un experimento científico podría considerarse como una de las mejores configuraciones para inducir el efecto psi.

[18] Por ejemplo, si el participante tiene que pulsar un botón para poner una luz en verde o en rojo (el color de la luz depende del resultado del RNG), no tiene una influencia directa y mental sobre el RNG; De hecho, ha elegido el momento adecuado para pulsar el botón a fin de seleccionar una secuencia binaria aleatoria (más 0 o más 1) asociada con el color correcto.

[19] También se podría plantear la hipótesis de que otros efectos controvertidos como la homeopatía y diferentes formas de prácticas de la medicina complementaria y alternativa (Hyland, 2003) podrían ser la consecuencia de la psi (Walach, 2000; Lucadou, 2019).

[20] Si esta hipótesis es cierta, no solo es importante desde un punto de vista científico, sino que también significa que se pierde gran cantidad de dinero invertido en investigación científica porque en realidad se trata de efectos psi. En este sentido, sería fundamental encontrar una manera de discriminar los efectos «clásicos» de los «psi» para evitar este problema, que puede tener graves consecuencias, especialmente en la investigación médica.

[21] Este enfoque también se ha utilizado para la búsqueda de personas desaparecidas (Schwartz, 2007), arqueología (Schwartz, 2001) e inversión financiera (Bierman and Rabeyron, 2012).

ContinuarỦ

Los orígenes de la vida real de 15 leyendas urbanas

Los orígenes de la vida real de 15 leyendas urbanas

7 de octubre de 2020

Ellen Gutoskey

imageÉl (probablemente) no se esconde en tu ducha. BREAKERMAXIMUS, SHUTTERSTOCK

Entre los muchos marcadores de una fiesta de pijamas de calidad, estos tres son primordiales: mucha comida chatarra, muy poco sueño y al menos una aterradora leyenda urbana. Si creciste en Maryland, esa leyenda puede haber involucrado a un cierto asesino mitad cabra, mitad hombre bautizado acertadamente como el Hombre Cabra. Los niños de Virginia Occidental, por otro lado, podrían haberse asustado unos a otros con historias del Hombre Polilla, una enorme bestia alada que los residentes empezaron a ver durante la década de 1960.

Por supuesto, hay muchas leyendas urbanas que trascienden los límites geográficos y no tienen nada que ver con los híbridos entre humanos y animales. Todas esas historias sobre niñeras plagadas de llamadas telefónicas sospechosas, por ejemplo, han preparado a generaciones de cuidadores de guardia para saltar cada vez que suena el teléfono.

Si bien las leyendas urbanas son exageradas e inverosímiles por naturaleza, eso no significa que todas fueron completamente inventadas en primer lugar. En este episodio de The List Show, la editora en jefe de Mental Floss, Erin McCarthy, cuenta las historias reales detrás de 15 leyendas urbanas populares. Descubrirás por qué tanta gente piensa que Pop Rocks y refrescos pueden matarte, cómo un cadáver real terminó en una casa embrujada y muchas otras cositas terriblemente aterradoras.

¿Sabías que hay un lugar en el Océano Pacífico Sur llamado Point Nemo que está más lejos de la tierra que cualquier otro punto de la Tierra? Hasta ahora, de hecho, los humanos más cercanos suelen ser astronautas a bordo de la Estación Espacial Internacional. (Y, por cierto: el mapa en el que está a punto de buscar Point Nemo podría no ser del todo exacto; se produce una cierta distorsión al intentar representar un planeta en 3D en una superficie en 2D).

En este episodio completamente nuevo de The List Show, la editora en jefe de Mental Floss, Erin McCarthy, viaja al centro de la Tierra y visita sus océanos, su atmósfera e incluso el espacio, en busca de 100 hechos sobre nuestra fascinante planeta.

Los temas que caen bajo el paraguas de «hechos sobre la Tierra» son casi tan extensos como la Tierra misma. La geología, la biología, la astronomía y la cartografía son un juego limpio, y esas son solo algunas de las muchas -ologías, -onomías y -ografías que aprenderá a continuación.

Presione reproducir para descubrir más hechos trascendentales y suscríbase al canal de YouTube Mental Floss para ver más videos llenos de hechos aquí.

https://www.mentalfloss.com/article/632687/lego-baby-yoda-star-wars-mandalorian?utm_content=infinitescroll1