El dogma es sencillo: publicar es garantía de calidad. La investigación publicada en revistas internacionales es de buena calidad. Un científico no logra publicar algo porque es de mala calidad. Un dogma cada día más insostenible. Un dogma que todos tenemos que aceptar. Las revistas científicas no pueden ser garantes de la calidad. Las editoriales que publican las revistas tienen un negocio que sostener y la economía dicta las normas para asegurar beneficios. La calidad científica por sí misma no genera beneficios. El número de artículos publicados sí que los genera. El número de citas que recibe un artículo sí que los genera. El negocio editorial de las revistas científicas depende del índice de impacto. Maximizar el índice de impacto es el objetivo prioritario. La cantidad de artículos publicados ayuda a lograrlo. La calidad científica de lo publicado no lo garantiza. La ciencia se ha convertido en un negocio: el negocio de las publicaciones científicas. Nos lo recuerdan Donald Siegel y Philippe Baveye, " Battling the Paper Glut," Letters, Science 329: 1466, 17 September 2010.
El concepto "publicar o perecer" (publish or perish) apareció en EEUU en los 1950 y fue muy criticado en su momento, pero en los 1980 se impuso cual dictador que somete a la comunidad académica. Las universidades empezaron a utilizar de forma sistemática el número de artículos publicados al año por cada profesor como medida "fiable" de su productividad. Los investigadores se dedicaron a publicar a destajo seccionando su trabajo en las unidades más pequeñas posibles que fueran publicables (" salami slicing"). Los artículos escritos por muchos autores (en los que algunos ni siquiera se han leído el manuscrito) se convirtieron en la norma. Muchos doctorandos guiados por sus directores de tesis acabaron publicando de forma separada cada capítulo de su tesis doctoral, enviándolos a revistas incluso antes de la defensa de su tesis. A veces la defensa se ha de retrasar hasta que el doctorando tenga cierto número de artículos publicados (o aceptados) en revistas. Desde finales de los 1980 hasta finales de los 1990 el número de artículos publicados al año creció entre un 200% y un 300% (según el campo).
Ver la espina en ojo ajeno es más fácil que ver la astilla en ojo propio. Los males del publish or perish se están observando con toda su crudeza en la investigación que emerge de países como China e India. Estos países han imitado a Occidente hasta el punto de ofrecer incentivos o recompensas monetarias a los investigadores que logran un mayor número de artículos publicados en revistas de calidad (impactadas). Por ello, el número de artículos producidos por estos países está creciendo a pasos agigantados. En 2008, China superó a los Estados Unidos y se convirtió en el segundo productor científico (en número total de artículos publicados) después de Europa. Los índices bibliométricos que miden la calidad de las publicaciones indican que Estados Unidos es el mayor productor de ciencia de calidad del mundo, con diferencia. Aún así, muchos índices bibliométricos (cono el índice h) incentivan que los investigadores publiquen un gran número de artículos para inflar sus índices de calidad (con autocitas o citas a "amigos" que luego les citen a ellos).
Las principales revistas científicas publican un número tan grande de manuscritos que la mayoría de los editores principales son incapaces de garantizar la calidad científica de lo que publican. Además, la revisión por pares cada día es más difícil de gestionar. Muchos editores encuentran muchos problemas para encontrar revisores entre los especialistas de renombre y tienen que recurrir a investigadores de menor prestigio. Los científicos de prestigio además de revisar artículos para revistas tienen que revisar propuestas de proyectos de investigación e informes gubernamentales. Sin embargo, la revisión por pares no es valorada por las instituciones académicas como mérito científico. Los revisores trabajan gratis para las grandes editoriales de publicaciones científicas sin recibir nada a cambio. Por ello, cada día que pasa es más difícil que un científico acepte revisar un artículo por amor al arte.
Donald Siegel y Philippe Baveye afirman en su artículo que, bajo ninguna circunstancia, el número de artículos publicados debe usarse como criterio para otorgar una plaza, promocionar, o clasificar a las instituciones académicas. Siempre se debería limitar el número de artículos al año que un investigador puede incluir como garantía de la calidad de su trabajo en su propio curriculum vitae adjunto a una solicitud. En los proyectos de investigación también se debería limitar el número máximo de artículos propios que se incluyan. El objetivo ideal es premiar la calidad y no la cantidad. El objetivo de las instituciones debe ser premiar a los investigadores que se guían su trayectoria académica por la calidad y no por la cantidad.
Donald Siegel y Philippe Baveye también nos recuerdan la importancia vital de la revisión por pares en la ciencia actual. Debería implantarse algún mecanismo (algún tipo de índice bibliométrico) que premie a los revisores que realizan un trabajo de calidad (los editores y los propios autores podrían cuantificarlo de alguna manera). La formación en cómo revisar artículos científicos debería ser parte íntegra de la formación predoctoral y postdoctoral de los investigadores jóvenes. La eficacia de la revisión por pares es la herramienta clave para garantizar la calidad científica de lo que se publica. Los investigadores tienen que recordar que cuanto más artículos se publiquen en el mundo, más ineficiente será la revisión por pares. El dogma debe cambiar: una revisión por pares rigurosa es garantía de calidad.
El negocio de las publicaciones científicas
Ahogados en artículos
A propósito de un artículo publicado en "Science".