Récord negativo en la ciencia: 2023 será el año con mayor número de artículos retractados
Un análisis de Nature aflora más de 10.000 trabajos que han sido retirados por dudas sobresobre su calidad.
18 diciembre, 2023 01:51A finales de año, las revistas científicas publican lo que consideran que han sido los investigadores y trabajos que han sido protagonistas en los últimos 12 meses. Pero quizá, si este año es recordado por algo, lo sea por un récord deshonroso: las retractaciones de artículos científicos se han disparado.
Un análisis realizado por la revista Nature apunta que ya son más de 10.000 los artículos retractados en los últimos 11 meses (el análisis se cerró a principios de diciembre). La cifra es casi el doble de la del año pasado que, a su vez, marcó un nuevo récord en retractaciones.
Una retractación se produce cuando la editorial retira un artículo ya publicado por dudas de que se hayan seguido los estándares requeridos y aceptados por la comunidad científica. Puede deberse a errores en la metodología, dudas sobre cómo se consiguieron los consentimientos informados de los participantes de un ensayo, etc.
[La ciencia se pudre: los artículos falsos y los plagios se disparan sin que nadie pueda detectarlos]
En ocasiones, son los propios autores los que piden que se retire su artículo. Ha ocurrido recientemente, cuando investigadores de varias universidades de Reino Unido han pedido retirar un estudio que publicaron en The BMJ sobre sobre el efecto de los impuestos a las bebidas azucaradas tras descubrir un fallo en los cálculos.
Otras veces es la comunidad científica la que advierte que un estudio llega a las conclusiones equivocadas o utiliza una metodología demasiado pobre como para poder confiar en sus resultados.
Es el caso del famoso artículo que relacionaba la vacuna triple vírica con el autismo. Publicado originalmente en 1998, fue retractado en 2010 por The Lancet al reconocer que era un estudio fraudulento. Desde entonces, sin embargo, ha sido citado cerca de un millar de veces en otros artículos científicos.
De las 10.000 retracciones, unas 8.000 proceden de una sola editorial: Hindawi, filial de Wiley (una de las grandes de la publicación científica) con sede en Londres. Esta editorial estaba especializada en números monográficos, donde muchas veces la calidad brillaba por su ausencia.
Lo que en principio se trataba de números especiales dedicados a un tema acabó siendo una vía para facilitar la publicación de artículos en lotes, publicando cientos de monográficos al año sin atender a la calidad científica. En consecuencia, a principios de año, la consultora científica Clarivate retiró varias revistas de Hindawi de su base de datos.
Esto, en la práctica, era firmar su defunción, pues cuando una revista sale de su base de datos —conocida como Web of Science— no recibe factor de impacto, que es el número medio de citas a artículos de la revista en un tiempo determinado y la base del sistema para medir la calidad en el mundo científico.
"Una buena señal"
La publicación de monográficos se convertía, así, en la vía para hinchar currículos investigadores sin demasiado esfuerzo, y una nutritiva vía de ingresos para las editoriales: las revistas de Hindawi eran de acceso abierto y por tanto los propios investigadores eran los que tenían que pagar para poder publicar sus artículos. El negocio perfecto.
"De forma general, un número mayor de retractaciones es una buena señal", explica, a EL ESPAÑOL, Ivan Oransky, cofundador de Retraction Watch, una web especializada en la vigilancia de los artículos retirados. Su base de datos, con más de 45.000 referencias, ha servido de base para el análisis de Nature.
Oransky cree que las tasas de retractaciones son mayores ahora porque hay más conciencia sobre el tema. "Las retractaciones no son automáticas. En el pasado, una revista podía no hacer nada y la gente tenía problemas para saber que un artículo era problemático porque no estaba online".
[El oscuro negocio de la venta de datos genéticos: "Si algo se puede hackear, acabarán haciéndolo"]
De hecho, podemos estar ante la punta del iceberg: hay estimaciones de que el número total de artículos fraudulentos pueden suponer el 2% del total publicado, mientras que las retractaciones calculadas por Nature solo son el 0,2%.
La mayoría de estos trabajos proceden de los conocidos como paper mills, algo así como 'granjas de artículos': estudios fraudulentos que se venden al mejor postor para que pueda engordar su currículum investigador.
La mayor parte de estas 'granjas' proceden de países como China, Rusia o Arabia Saudí. Estos tres estados están en el top de artículos retractados, según Nature, junto a Paquistán, Egipto o la India.
[El Nobel que podría dejar de serlo: el doctor Gregg Semenza acumula más de 50 trabajos sospechosos]
La irrupción de la inteligencia artificial ha facilitado el trabajo a estas 'granjas', que "llevan existiendo desde hace más de una década", explica Oransky. "Ahora son más fáciles de hacer, así que estamos encontrando más problemas pero también somos más conscientes de las retractaciones".
El periodista explica que hay software dedicado a la detección de textos con inteligencia artificial que es sencillo que se generalicen. Sin embargo, ni las 'granjas de artículos' ni el mal uso de la inteligencia artificial es lo que de verdad le preocupa.
"Las granjas, la mala praxis, el falseamiento de datos... Todo esto es una respuesta a la cultura del 'publica o perece'. Si queremos hacer frente a todo esto, debemos repensar este modelo", sostiene.
'Publica o perece'
Oranksy se refiere al sistema de medición del impacto científico medido en la cantidad de artículos que uno publica. Nadie se imagina a Einstein o Francis Crick, por citar a algunos de los más grandes científicos del siglo XX, firmando cientos o miles de artículos para demostrar su valía. Pero el sistema que otorga becas y subvenciones a proyectos funciona de esta manera.
"Creemos que [el 'publica o perece'] es el origen de gran parte de este problema de las retractaciones", observan desde la Oficina Española de Integridad en la Investigación. En España, el sistema se introdujo en 1994. Actualmente, en nuestro país se publican más de 100.000 artículos anuales y somos la undécima potencia en producción científica.
Pero este incentivo "ha conllevado una degradación de los principios más básicos en los que se basa la investigación, cuyo fin último y principal no es el de publicar más y más, sino el de realizar investigaciones para resolver problemas de la sociedad, y fue esto último lo que parece que se ha olvidado con este sistema".
En la Oficina recuerda que la Agencia Nacional de Evaluación de la Calidad y Acreditación (Aneca), que evalúa el desempeño de las carreras académicas e investigadoras, acaba de iniciar el camino inverso: primar la calidad por encima de la cantidad.
"Nos parece un paso en el camino correcto para volver a dignificar la investigación y que aquellas personas que se han aprovechado de este sistema publicando artículos de baja calidad y buscando autorías que no les pertenecen lo tengan ahora más difícil para conseguir financiación y, por tanto, se lo piensen bien antes de coger esos atajos nada éticos".
Eso sí, recuerdan que esos atajos "estaban avalados por el propio sistema de investigación español". La consecuencia, por poner un ejemplo, son los más de 12 millones de euros 'tirados a la basura' que calculaban los investigadores Ángel Delgado y Rafael Repiso en subvenciones públicas a proyectos publicados en revistas caídas como las de Hindawi este año.
[España, la inagotable fábrica de tesis doctorales 'cum laude': "Lo raro es que no te lo den"]
¿Cómo poner fin a esta pescadilla que se muerde la cola de publicaciones y retractaciones? Wiley, la matriz de Hindawi, anunció recientemente que dejaría de utilizar este nombre y frenaría la política de monográficos que tan pingües beneficios le ha dado: esperan perder entre 35 y 40 millones de dólares en ingresos este año.
Sin embargo, editoriales con una política similar, como la suiza MDPI, no han tomado ninguna medida a pesar de ser la más perjudicada por la exclusión de sus revistas de las bases de datos de Clarivate.
"Necesitamos que al actual Comité Español de Ética en la Investigación se le otorgue capacidad de sanciona", apuntan desde la Oficina Española de Integridad en la Investigación, "y no sea una mera institución de consulta sin carácter vinculante".
Los integrantes de la oficina, al igual que Ivan Oransky, creen que es necesario repensar el sistema de publicar o perecer. "Tenemos que dejar de medir cuántos artículos se están publicando", señala Oransky. "Estos rankings de citas son muy populares y tiene sentido que la gente tienda, por tanto, a manipular el sistema".