Arrow

La economía tiene problemas de rigor científico


0
Materia

Este artículo ha sido escrito en Materia, web de noticias de ciencia, tecnología, salud y medio ambiente, que comparte su contenido para ser republicado.


Escrito el 13 de enero de 2014 a las 13:45 | Clasificado en Actualidad

Un artículo publicado en la revista “Science” reclama más transparencia para que ciencias como la economía tengan resultados más fiables.

Olli Rehn, comisario europeo de Asuntos Económicos y Monetarios. (Flickr: European Parliament).
Olli Rehn, comisario europeo de Asuntos Económicos y Monetarios. (Flickr: European Parliament).

Los economistas son los pensadores más influyentes del momento, muy por encima de los grandes biólogos o físicos. No es de extrañar, porque sus recomendaciones pueden tener efectos devastadores o salvadores sobre millones de personas. Y sin embargo, según se menciona en un artículo publicado hoy en la revista “Science”, durante décadas, muchas afirmaciones con relevancia para la elaboración de políticas económicas se sustentaban en argumentos teóricos sin contrastar y correlaciones no concluyentes. En los últimos diez años, la inclusión de prácticas científicas más sólidas, como los ensayos aleatorizados, ha mejorado la fiabilidad de los resultados, pero según los autores, liderados por el economista Edward Miguel, de la Universidad de California en Berkeley (EEUU), es necesario mejorar la transparencia de las ciencias sociales para mejorar su impacto y su credibilidad.

Los investigadores afirman que aún existen incentivos y formas de trabajar dentro de las instituciones en las que se desarrollan las ciencias sociales que dañan sus resultados. En un problema que se comparte con otras ciencias, como la psicología y la medicina, los resultados negativos, la repetición de trabajos para comprobar que sus resultados eran correctos o los resultados desconcertantes tienen menos posibilidades de aparecer publicados que otros positivos o más pulcros.

Además, “las revistas de ciencias sociales no obligan a adherirse a normas de información o registro de estudios”, afirman los investigadores. Esto hace que muchos científicos, al no tener que enseñar las tripas de su trabajo, tengan la tentación de mostrar y analizar solo los datos que les convengan para facilitar la publicación del artículo. Así, es posible que seleccionen un grupo de resultados positivos extraídos de un estudio mayor que en conjunto solo produce resultados contradictorios o que anulan la hipótesis planteada.

Como ejemplo de investigación defectuosa, en la presentación de su iniciativa por la transparencia en las ciencias sociales, los autores citan el caso del artículo de 2010 de los investigadores de la Universidad de Harvard Carmen Reinhart y Kenneth Rogoff. En él se vinculaba un alto endeudamiento de un país con un bajo crecimiento y se afirmaba que cuando la deuda supera el 90% del producto interior bruto (PIB) la economía se ralentiza. Este estudio fue esgrimido por dirigentes políticos como el comisario de Economía europeo Olli Rehn para justificar políticas de austeridad, con resultados, como poco, mejorables. El mismo Wolfgang Shäuble, ministro de Finanzas de Alemania y gran defensor de las políticas de recorte, afirmó creer “firmemente en investigaciones como las de Rogoff y Reinhart, que demuestran que, si alcanzas un determinado nivel de deuda pública, aumentar el déficit y la deuda no generan crecimiento, sino que lo dañan”.

En 2013, sin embargo, otro estudio, de la Universidad de Massachusetts, reveló que Reinhart y Rogoff, en parte gracias a los fallos que denuncia en “Science” el equipo de Miguel, omitieron datos disponibles a la hora de realizar su análisis y utilizaron una metodología muy discutible que incluía el uso poco ortodoxo y fallido de una hoja de Excel. Uno de los artículos utilizados para dar empaque a medidas que tuvieron efectos nefastos sobre la vida de millones de personas en todo el mundo tenía defectos graves.

Tres recomendaciones

Para mitigar el riesgo de que esta mercancía defectuosa se siga colando como ciencia sólida, los autores del artículo de “Science” hacen una serie de recomendaciones. En primer lugar, piden algún tipo de norma a la que haya que adherirse y que requiera, entre otras cosas, que se pueda acceder a todas las medidas, manipulaciones y exclusiones de datos que se hayan realizado para alcanzar las conclusiones finales del estudio.

Además, se reclama que haya un registro sobre cómo se va a realizar el análisis de los datos antes de llevarlo a cabo, para distinguir si se está probando una hipótesis o simplemente haciendo exploración. Sabiendo cómo el investigador analizará paso a paso los datos antes de que los haya visto será más fácil evitar que una vez que los observe adapte la forma de analizarlos a los resultados que desea obtener.

Por último, Miguel y su equipo reclaman que los materiales empleados en la investigación se archiven y se compartan a través de canales que los hagan accesibles, una vez terminada la investigación, para que otros científicos puedan poner a prueba las afirmaciones realizadas en un artículo determinado.

Entre los culpables de los defectos que quieren corregir, los autores del estudio mencionan la presión por publicar que sufren los investigadores y la tendencia de muchas revistas a preferir resultados positivos sobre los negativos o los que replican otros hechos antes para comprobar su veracidad. En muchas ocasiones, reconocen, la presión lleva a hacer todo lo que es justificable para acumular la información necesaria para hacer un estudio publicable, algo que no siempre está relacionado con la obtención del conocimiento más interesante.

FuenteLa economía tiene problemas de rigor científico

Autor: Daniel Mediavilla

Comparte tu punto de vista

XHTML: Puedes usar estas etiquetas: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>