REDoC, TESEO y otras hierbas

Hace tiempo que vengo aplazando mis críticas a la Revista Española de Documentación Científica (REDoC) de la que hay muchas cosas que no me gustan. Mientras las maduro, dedico aquí algunos comentarios sólo al contenido de su número más reciente. Igual interesan a otros.
De los ocho artículos que contiene, seis son de estilo bibliométrico, con tres de ellos centrados en la evaluación; los otros dos trabajos proceden del campo de la biblioteconomía.

oxigeno
El grupo “Políticas de información, Tecnologías de la Documentación y Comunicación Científica” de la Universidad Complutense de Madrid firma el trabajo más interesante de los de estilo cuantitativo. Su artículo me parece valioso porque aborda el manejo de la base de datos TESEO, un registro de las tesis doctorales aprobadas en las universidades españolas que, con ser público, es de utilidad muy limitada y de escaso aprovechamiento. El problema es que no contempla la descarga masiva de registros y, así, se dificulta el análisis de su contenido. Empleando minería de datos, los autores han obtenido algo menos de 200.000 registros de otras tantas tesis y realizan un estudio descriptivo que abarca 37 años. Critican adecuadamente la calidad de su fuente; ponderan razonablemente sus resultados y presentan datos interesantes que algo avanzan sobre las estadísticas oficiales de las tesis doctorales españolas disponibles. Su mérito hubiera sido mayor si pusieran a disposición de otros investigadores los registros que han descargado. Quizá así se consiguiera que el Servicio de Coordinación y Seguimiento Universitario o quien sea responsable del registro de las tesis aprobadas en las universidades españolas lo haga público de verdad.
Los dos trabajos del grupo de la Facultad de Comunicación y Documentación de la Universidad de Granada siguen la práctica de aprovechar la aparición de nuevos recursos de información para explorar su utilidad como fuentes de datos bibliométricos. Enrique Orduña y su grupo insisten en Google Scholar mientras Rafael Repiso centra su trabajo en dos colecciones recientemente añadidas a la Web of Science.
El análisis de las publicaciones españolas sobre investigación de la comunicación radiofónica y el examen de las listas de revistas “autorizadas” (una traducción demasiado libre de la expresión de Alesia Zuccala) cierran el apartado de trabajos bibliométricos.

Mi compañera JuliaO y su equipo han examinado la publicación de trabajos de los investigadores que forman parte de los comités editoriales de revistas de Psicología en esas mismas revistas. Por lo que parece, hay beneficios para ambas partes: los investigadores publican más y con mayor rapidez y esos artículos atraen más citas para las revistas. Miel sobre hojuelas.
Sobre la promoción de la lectura o la motivación a la lectura se vienen publicando entre 40 y 50 artículos por año en revistas internacionales. En España han aparecido más de 40 libros, más de 100 tesis y cerca de 500 trabajos sobre el tema. Gemma Lluch y Sandra Sánchez realizan una revisión de estos trabajos muy limitada, tanto que sus conclusiones apenas tienen validez. Sin embargo, me parece estupendo que la Revista Española de Documentación Científica publique revisiones, incluso que anime o encargue su elaboración. Podría así atraer la atención de más lectores, ejercer mayor influencia en su entorno y traducir eso (que es lo que realmente importa) en una mayor cantidad de citas (que sólo son un reflejo de lo que importa).

Advertisements

Debilidad por el cuervo

Nadie me creyó cuando afirmé que los cuervos de Berlín no eran negros y marcaban el paso de la oca, así que me faltó tiempo para captar a uno en uno de sus paseos.

cuervoberlines
Tomo la anécdota como excusa para referirme muy brevemente a una noticia que supe ayer: la casa editorial Elsevier demanda a Sci-Hub y LibGen el pago de 15 millones de dólares. Y veréis por qué.
Sci-Hub almacena 62 millones de copias de artículos de investigación y bastantes libros. Cualquiera, desde cualquier parte, puede obtener una de ellas sin coste adicional alguno.
Supongo que la actividad de Sci-Hub puede no ser legal. Supongo que la actividad de Elsevier es legal. También creo que la actividad de Sci-Hub no debería perseguirse y que se deberían cuestionar las maneras de Elsevier. Como frente a otras diatribas, no me he formado una opinión, pero he adoptado una postura. Desde estas notas he enlazado con frecuencia las versiones electrónicas de artículos de investigación. En ocasiones, y ante la sospecha fundada de que algunos trabajos no serían accesibles a todo el mundo, he empleado el enlace que me proporcionaba Sci-Hub cuyo anagrama es (qué coincidencia) un cuervo que sostiene una llave.
La fundadora de Sci-Hub, Alexandra Elbakyan, aún no ha cumplido los 30 y ha sido considerada una personalidad relevante para la ciencia y mencionada junto a Edward Snowden, quien ha sido y es relevante para todo el mundo. De momento, el destino de Alexandra es diferente al de Aaron Swartz, un campeón de los formatos libres en Internet, que fue hallado muerto poco tiempo después de ser acusado de una descarga masiva de archivos PDF almacenados en JSTOR.

No dejan de repetirme que la investigación científica es desinteresada y no tiene fronteras. Suelo responder con mi sonrisa más cínica: del trabajo desinteresado de los científicos hay quien  extrae un grandísimo interés y, por mucho que se cacaree lo de la “república de las letras”, todos los premios Nobel tienen pasaporte.

Sabemos lo que pasa cuando el grajo vuela bajo, así que más vale que el cuervo siga marcando el paso de la oca largo tiempo.

Autoría científica: ¿ baile de vampiros o merienda de negros ?

Hace tiempo que no me topaba con John Walsh. Junto a su pupila Li Tang, este profesor del Georgia Institute of Technology propuso en 2010 un método para resolver la homonimia de los autores de trabajos de investigación mediante el análisis de sus listas de referencias bibliográficas. Recuerdo haber criticado el método sin ninguna base sólida, pero con la sospecha de que los cambios en las líneas de investigación se podrían traducir en cambios en la base de conocimiento de los autores y, en consecuencia, en su perfil de referencias. Hace tiempo que las limitaciones de la capacidad de cálculo en los ordenadores a mi alcance me hicieron renunciar a comprobar empíricamente mis objeciones.

OBaileDosVampiros-02

Dance of the Vampires (Roman Polansky, 1967)

Ahora vuelvo a coincidir con Walsh porque, mientras he concluido estos días un primer trabajo sobre autoría y me dispongo a analizar los resultados de otro sobre parecido tema, me he topado con que, junto a su colaboradora Sahra Jabbehdari, ha publicado un artículo sobre el mismo tema. Y me parece muy, muy bueno.
En “Authorship Norms and Project Structures in Science” Walsh y Jabbehdari examinan la correspondencia entre la contribución de cada investigador en el desarrollo de un proyecto científico y su aparición en (o exclusión de)  las listas de autores de las publicaciones resultantes siguiendo las normas convencionales de autoría. Su objetivo principal es:

…to develop an understanding of some of the drivers of authorship lists (and how those vary systematically by field and by project characteristics net of field) in order to address concerns in the sociology of science and in science policy about the meaning of authorship lists for the evaluation and carees in science.

La introducción del cualquier artículo científico exige un balance entre las definiciones, los razonamientos retóricos y la bibliografía. Las definiciones responden a la pregunta ¿ Qué se investiga ? Los razonamientos responden a la cuestión ¿ Por qué se investiga ? y las referencias bibliografías tratan de responder a la pregunta ¿ Para quién es relevante la investigación de ese tema concreto ? La retórica de una buena introducción requiere de un balance exquisito entre las tres respuestas. En el trabajo de Walsh, sin embargo, el equilibro se rompe en favor de una revisión bibliográfica que a mí me parece excesiva. Las tres ideas básicas de esta sección son: 1) existen criterios para “elevar” a un colaborador al rango de autor; 2) esos criterios no siempre se respetan, y 3) la aplicación de los criterios depende de la cultura de cada grupo o especialidad científicos.
La tercera sección de la introducción discute si las expectativas de un alto impacto del trabajo, los visos de su aplicación comercial y el grado de colaboración institucional que ha exigido su realización pueden predecir la inclusión de más o menos autores en los artículos.
Tras seleccionar una muestra de trabajos de investigación, Walsh y Jabbehdari someten a sus autores correspondientes a una encuesta para que determinen el papel que los firmantes de los trabajos han desempeñado. Los resultados del trabajo son espléndidos, muy robustos, pero sus conclusiones no albergan muchas sorpresas. Ya sabíamos que

authorship lists are the result of a complicated process involving negotiations, field norms, and differences in visibility and that these vary across projects in systematic ways

Y también que

authorship practices may be changing in the age of bureaucratic science. Hence, there is a need for authorship policies and norms that are fitted to this new bureaucratic science structure

La  terminología de Jabbehdari y Walsh me resulta ambigua. Llamar especialistas a aquellos autores que realizan aportaciones puntuales al trabajo no tiene nada de particular, pero hacer equivalentes estos specialist authors a los “guest” authors, autores honoríficos, no me cuadra. Del mismo modo, también me choca que se denominen “nonauthor collaborators” a los autores denominados fantasma (ghost) o negros. Pero recomiendo encarecidamente la lectura del trabajo y agradezco muchísimo que hayan ampliado el estudio de la autoría de trabajos científicos e introducido la forma de identificar o investigar esas dos figuras.
No soy ingenuo: las continuas revelaciones de falta de ética, plagio, reinados de taifa y otras perversiones me hacen suponer que no cesará la picaresca de los investigadores. Pero no conozco actividad humana que no tenga aprovechados, precarios, chupasangres, negros y fantasmas. Trabajos como el de Jabbehdari y Walsh, sin embargo, pueden contribuir a mejorar las directrices y los criterios de una honesta autoría.

¿ Revisiones rápidas o revisiones limitadas ?

En Junio de 1997, tres médicos británicos publicaron un artículo cuyo título comenzaba por “Rapid and responsive health technology assessment”. Ha sido identificado como el primer trabajo que describía lo que, andando el tiempo, se ha venido a denominar “rapid reviews”, revisiones rápidas.

 

Roadrunner

Dos fotogramas de uno de los capítulos del Correcaminos

Hace bastante tiempo que elaboré varias notas sobre las revisiones y no hace tanto que también publiqué un comentario sobre el retraso de publicación. Como ahora, 20 años después, se acaba de publicar un artículo especial (el primero en España) sobre las revisiones rápidas, aprovecho para opinar, como casi siempre a la contra.

La definición de revisión rápida

Una revisión (bibliográfica) se elabora a partir del examen de materiales previamente publicados sobre un tema determinado. Una revisión sistemática se ajusta a un procedimiento normalizado para la selección de esos materiales previos y para la evaluación de su utilidad como evidencia científica. Pues bien, Ferrán Catalá López y sus colaboradores ofrecen una traducción muy adecuada de la definición de revisión rápida:

Una revisión rápida puede definirse como una revisión de la literatura científica que utiliza métodos simplificados y acelerados en comparación con una revisión sistemática tradicional.

Sin embargo, no me resisto a acotar esta otra definición operativa, que procede del trabajo previamente enlazado y tiene cierta elegancia:

“… a rapid review is a type of knowledge synthesis in which components of the systematic review process are simplified or omitted to produce information in a short period of time”

Catalá y sus colaboradores han elegido dos ejemplos de revisiones rápidas: una sobre la mejora de la asistencia en el centro canadiense donde trabajan;  la segunda como respuesta (del mismo centro) a una consulta de la Organización Mundial de la Salud sobre la indumentaria de protección frente al virus del Ebola.

¿ Revisiones rápidas  o revisiones cortas ?

De las alrededor de 150 revisiones rápidas publicadas en los últimos años, sólo unas 20 se salen del ámbito de la Medicina. Las revisiones rápidas parecen útiles para guiar por la evidencia determinadas decisiones en el campo de la práctica clínica o la Epidemiología. Pero, de los ejemplos que Catalá aporta y otros parece desprenderse la idea de que las revisiones rápidas se realizan por encargo. De hecho, el propio Catalá se refiere a “su naturaleza exploratoria, dirigida generalmente a informar una decisión”. Nada que objetar, pero tengo dos cuestiones.
La primera ¿ Son las revisiones rápidas útiles desde el punto académico ? Yo diría que la respuesta a esta pregunta es “no”. La propia Sharon Straus y sus colaboradores resumen así los resultados de la revisión de las revisiones rápidas que realizaron:

Streamlined methods that were used in the 82 rapid reviews included limiting the literature search to published literature (24 %) or one database (2 %), limiting inclusion criteria by date (68 %) or language (49 %), having one person screen and another verify or screen excluded studies (6 %), having one person abstract data and another verify (23 %), not conducting risk of bias/quality appraisal (7 %) or having only one reviewer conduct the quality appraisal (7 %), and presenting results as a narrative summary (78 %)

Es decir, los autores abrevian el procedimiento de revisión sistemática limitando de una forma u otra el número de trabajos previos que recopilan. No es lo que yo recomendaría a un estudiante de postgrado, desde luego. Y, la segunda cuestión ¿ Aportan alguna mejora a la diseminación de la información científica ?.
Veamos, la primera de las revisiones que Catalá describe apareció publicada el 31 de Enero de 2012, pero ya se había emitido el informe interno resultante con anterioridad, con bastante anterioridad— en Febrero de 2011. La segunda revisión, la dirigida a la OMS, apareció en una revista de publicación rápida el 9 de Octubre de 2015. El tracing indica que llegó a la redacción el 16 de Julio de se año. ¿ Tiene algún sentido que las revisiones de los ejemplos— que se realizaron en cuatro y siete semanas— tardaran 44 y 11 semanas respectivamente en publicarse ?. Los retrasos de publicación son una gran losa. Si con las demás revisiones rápidas pasa lo mismo, si son rápidas porque son cortas y si sólo son puntuales en su entrega a quienes las encargaron, entonces no merece la pena que se consideren siquiera un subgénero en comunicación científica.

Me temo que se avecinan días difíciles así que hoy nada de música.

Otra muestra de casquería científica: las citas como longanizas (y cómo evitarlas)

Hace poco añadí a las bellas durmientes de van Raan otro de los símiles útilers en comunicación científica: los cadáveres excelentes. Quizá debería haber completado el cuadro refiriéndome a los artículos zombies, por aquello de la proximidad de los muertos vivientes a los muertos bien muertos. Para quien no esté familiarizado con la jerga de la comunicación científica y su picaresca: un artículo zombie es aquel sucesivamente rechazado por las revistas de su especialidad y que, sin embargo, sus autores se empeñan en someter a más y más títulos como si se resistieran a enterrar (en un cajón se entiende) ese trabajo sin ninguna posibilidad de alumbramiento.
Si algo nos enseña el mal gusto de los autores de novelas gráficas y de los guionistas que adaptan sus obras es que la casquería tiene su clientela y que, para desgracia de los demás, Jacques Tourneur (I Walked with a Zombie, para RKO en 1943) no creó escuela. Pero a lo que íbamos.
La casquería no es un referente único. Muy cerca del puesto de visceras se encuentra la charcutería y es frecuente en la jerga el recurso a sus productos. Así,  la fragmentación de una única serie de observaciones en publicaciones reiteradas de casi los mismos resultados se ha dado en llamar “publicación en salami” (salami slicing) y como, por otra parte, chorizos hay en todas partes, no es difícil encontrarlos entre plagiarios y autores honoríficos.
Pero yo quiero hablar de las longanizas. Y quiero hacerlo con precisión: no me refiero a salchichas, sino estrictamente a longanizas ¿ Que cuál es la diferencia ? Sencilla: las salchichas se presentan aisladas, las longanizas en sarta o ristra. Y éste y no otro es el meollo y de paso el final de mi rodeo. Veréis.

2015-11-17 11.42.48

Ensartado de longanizas en un obrador (Venta del Aire, Teruel)

La cosecha de trabajos relevantes para la comunicación científica es abundante estas semanas y creo que de calidad. Voy a dedicar una próxima nota a comentar uno donde John P Walsh y Sahra Jabbehdai se las entienden con el espinoso asunto de la autoría. Pero antes lo menciono aquí sólo para destacar un detalle de su redacción. La cita literal es la siguiente:

authorship may also reflect social factors such as eminence or hierarchical position (Birnholtz 2006; Drenth 1998; Flanagin, Carey, and Fontanarosa 1998; Haeussler and Sauermann 2013; Laudel 2002; Mowatt et al. 2002; Rennie, Yank, and Emanuel 1997; Sismondo 2009; Zuckerman 1968)

¿ Alguien se percata del detalle ?. Para apoyar la afirmación de que quizás existan factores sociales que determinan el orden de firma [de los artículos de investigación] los autores citan…  nueve (nueve, o sea 9) investigaciones previas. Y por cierto, de forma desordenada.
A esto he dado en llamar citas como longanizas: a que se agolpen en una ristra o sarta un montón de autores y años o, en el sistema numérico, largas secuencias separadas por coma o por guión.
La idea que se intenta transmitir es la de unanimidad, la de que todo el mundo está de acuerdo en que el SIDA no tratado es mortal o en que las estructuras sociales de la ciencia determinan el orden de firma de los trabajos. Pero esta práctica es nociva sobre todo para el lector. Aún no he tenido tiempo de demostrarlo, pero demostraré que la lectura y comprensión de un texto científico, de por sí usualmente aburridas, se hacen más difíciles cuando las citas en el texto se acumulan como longanizas en su sarta.
Bueno, si los malos cómicos introducen “morcillas” sin tino ¿ Por qué los investigadores no han de emularlos ensartando longanizas a tutiplén y porrillo ?. Al fin y al cabo, entre las reglas para la escritura de trabajos sistemáticamente aburridos (“consistently boring”) se recomienda la escritura de trabajos laaaarrgooosss y la inclusión de muchas referencias para apoyar afirmaciones triviales.
No conozco a director alguno que haya propuesto limitar esta práctica, pero no pierdo la esperanza de que se apliquen algunas reglas sencillas que podrán contribuir a su desaparición:

Primero, el premio a la originalidad y homenaje al pionero.

En este caso a la pionera: si Harriet Zuckerman halló que las relaciones sociales entre científicos determinan el orden de firma de sus trabajos, basta con citar su trabajo de 1968. Los siguientes se han limitado a confirmar su hallazgo, que ella demostró por primera vez con gran elegancia.

Segundo, el premio a la robustez.

Me he encontrado con trabajos recientes que llegan a las mismas conclusiones que otros anteriores pero, siguiendo la moda actual de trabajar con poblaciones en lugar de con muestras, dan a sus análisis estadísticos y a sus conclusiones una gran robustez. El ejemplo siguiente, que he aplicado en propias carnes, ilustra la diferencia.
La afirmación de que existe una relación entre el número de autores de un trabajo y la frecuencia de citas que ese trabajo recibe posteriormente se puede apoyar en el trabajo “The effect of scholar collaboration on impact and quality of academic papers” o bien en el titulado “Team size matters: Collaboration and scientific impact since 1900”. Yo he citado el segundo porque es más actual (2015 a 2010) porque cubre un periodo mucho mayor (nada menos que 112 años frente al estudio transversal del primer trabajo) porque abarca más disciplinas (el primero sólo  trabajos en revistas de 20 categorías temáticas) y se extiende a más culturas (algo más de 28 millones de trabajos internacionales frente a 18.500 trabajos italianos).
No hay color, creo yo.
Es viernes y mañana asisto a la representación de la Symphonie der Tausend, lo que me sugiere abundar en temas fúnebres, como éste de Gilberto Gil. Para el fin de semana, que vuelve a ser largo, tiene su miga. Y ya si se combina con embutidos…:

Bellas durmientes y cadáveres excelentes

En 2004, Anthony F. J. van Raan llamó bellas durmientes a las publicaciones científicas que, tras largo tiempo desapercibidas, atraen de repente una gran atención. A pesar de que está jubilado, ha insistido hace poco en la misma metáfora, esta vez para referirse a “invenciones olvidadas”. En fin, estos olvidos han ocurrido desde antiguo, en ciencia y casi todos los demás ámbitos. El propio van Raan cita el caso del trabajo donde Gregor Mendel formuló en 1865 sus dos primeras leyes, y que permaneció ignorado durante más de treinta años. También Johann Sebastian Bach dejó de interesar casi del todo tras su muerte en 1750… hasta que una biografía en 1802 y, sobre todo, la representación de una de sus pasiones, que Mendelssohn organizó en 1829, contribuyeron a recuperar su obra para el gran público. Continuamente se producen “milagrosas recuperaciones” o hallazgos de obras literarias: lo de “Rien où poser sa tête” no es nada comparado con lo que se halló en el armario de Mario Lacruz.

dancingoctopus

La danza del pulpo (una imagen de Gabriel Barathieu tomada en la costa este de Africa). ¿ Alguien esperaba de mí otra imagen diferente ?

En ocasiones, sin embargo, no hay beso que despierte a los yacentes y así, trabajos científicos importantes, algunos de relevancia histórica, duermen sin remedio un coma de grado 3 o un casi definitivo sueño de los justos. Creo que está bien parafrasear el título de la película de Francesco Rosi (1976) y llamar a estos trabajos “Cadaveri eccellenti”  ¡ como si de una serie de magistrados tiroteados se tratara !

Menciono todo esto porque hace poco, mientras visualizaba la red de citas de la investigación del Ebola, me topé con un ejemplo no sé si bueno o malo, pero bonito: el trabajo de Stefaan Pattyn, Wim Jacob, Guido van der Groen, Peter Piot y un médico zaireño de apellido Courteille (que aparece mencionado bien con la inicial G o con el nombre Jacques). Este es el primer trabajo donde se achaca la enfermedad y muerte de una mujer de 42 años a “el virus de Marburg o un virus serológicamente diferente pero perteneciente al mismo grupo”. Es la primera descripción de lo que hoy se denomina enfermedad por el virus Ebola, detectada  en Yambuku (República Democrática del Congo, antes Zaire), en el verano de 1976. La noticia de este caso alertó a las autortidades sanitarias (las de los paquetes de cigarrillos no, otras) que reexaminaron un brote ocurrido tres meses antes en Maridi (Sudán del Sur) e identificaron el mismo agente causal.
No sé si las coincidencias significan algo pero se agolpan estos días: además de mi trabajo sobre la red de citas, tres compañeros de la Universidad del País Vasco en San Sebastián acaban de estudiar el contraste entre el tratamiento del Ebola en la prensa y en  la red Twiter. Por otra parte, me he topado con otro artículo (uno de los peores que he leído) que tardó un año en ser aceptado por la revista BMC Research Notes y que me niego a enlazar. En este último se realiza un análisis descriptivo de 2477 trabajos de investigación sobre la enfermedad publicados entre 1977 y 2014. Los resultados de este análisis revelan que el primer trabajo sobre la enfermedad por el virus de Ebola, el de Pattyn y su grupo, no es uno de los trabajos más citados. Esto es llamativo, pero no es sorprendente.
La última de las coincidencias es desgraciada y a punto ha estado de hacerme variar el título de esta nota. Eugene Garfield ha muerto el 26 de Febrero, justo mientras yo estaba examinando uno de sus trabajos clásicos, aquel en que enumera 15 motivos para citar una trabajo científico; el primero de ellos es “rendir homenaje a los adelantados (pioneros)”.  Y entramos de lleno en el meollo de la cuestión: si uno no anda espabilado (y los sistemas automáticos no lo son en absoluto) se puede olvidar el primer trabajo sobre el virus del Ebola al recopilar los trabajos sobre esta enfermedad por la sencilla razón de que ni su título ni su texto contienen referencia alguna al río que dio nombre a la enfermedad y su agente. De hecho, ninguno de los tres primeros trabajos emplean el término “Ebola” y las controversias sobre el descubrimiento no han cesado desde entonces. Tampoco el panfleto sobre la enfermedad divulgado por la Organización Mundial de la Salud se refiere a esa primera comunicación. Por suerte, la magnífica revisión de Joel Breman y sus colaboradores reconstruye con detalle los acontecimientos de aquel lejano verano del 76 y reconoce el esfuerzo del equipo que desde Kinshasa (Clinique Ngaliema) a Amberes (ITM) y luego a Porton Down (Microbiological Research Establishmen) y Atlanta (CDC) contribuyó al descubrimiento de tan terrible infección.

Cuántos excelentes descubrimientos muertos y enterrados por la dejadez y la falta de motivación. No dejéis que os pase. ¡¡¡ Sobre todo si trazáis redes de citas científicas !!!

Africa, tan hermosa, es tierra a la que solemos dedicar nuestra ignorancia y nuestros olvidos. A las dos cosas se opone el conocimiento y yo, homenajeando a algunos de aquellos que lo han hecho posible, me rebelo contra ellas. Mi ejemplo musical es hoy un homenaje a Africa y un tributo a Eugene Garfield, a quien debo ganarme la vida con un trabajo tan apasionante como el que realizo.

Un duo de koras del gran intérprete Toumani Diabaté. A disfrutarlo.

CiteScore: Scopus y la pólvora (con un estrambote)

Tras más de un mes apartado de estas notas, lejos de la rutina profesional, me he desayunado (es un decir) con el redescubrimiento de la pólvora. Mientras preparaba una sesión sobre fuentes de información científica y lidiaba con un nuevo cambio de la página de búsqueda en Scopus, me he dado de bruces con lo que los analistas de Elsevier, en un prodigio de originalidad, han dado en llamar CiteScore. Para llegar a este indicador sólo hay que  pulsar en el nombre la revista de cualquier registro resultante de una búsqueda. El resultado es un entero con un par de decimales y una explicación así de sencilla:

“CiteScore 2015 counts the citations received in 2015 to documents published in 2012, 2013 or 2014, and divides this by the number of documents published in 2012, 2013 and 2014”

¿ Os suena, verdad ?. Pues claro. CiteScore es lo que Bornmann, uno de mis alemanes favoritos, llama el near-doppelgänger, el sosias del Journal Impact Factor. Que el cálculo tome tres años en lugar de dos es lo de menos; la justificación se encuentra en una de las páginas de ayuda de Scopus.

dscn2061

El carro de curas de las enfermeras de una sala de Traumatología

Y ahora, la pregunta obligada: ¿ Por qué los bibliómetras de Elsevier descubren la pólvora y vuelven a formular el factor de impacto, que se concibió originalmente hace más de 60 años ?

Creo que la respuesta tampoco es original: un indicador es tanto más útil cuanto más simple, a despecho de todas sus imperfecciones. El producto interior bruto o el índice de precios al consumo de una economía se pueden discutir hasta la saciedad, pero la simpleza de su uso supera con mucho los intríngulis y defectos de su elaboración. El “factor” de impacto, que no es ni elemento ni resultado de una multiplicación sino de un cociente, es de comprensión rápida y de cálculo cómodo, a diferencia de su “primo” el Scimago Journal Rank— un indicador mucho más fino y mucho más complicado.
¿ Queréis saber lo peor de todo ?. Pues que, como pasó y sigue pasando tras la formulación y publicación del índice h, nos aguarda un largo y machacón goteo de trabajos comparando éste con indicadores anteriores. Sospecho que los resultados ya están escritos en uno de los más importantes artículos sobre los factores de impacto de las revistas científicas.
Yo no voy a perder el tiempo.

El estrambote

Ya antes de la redacción de esta nota había pasado lo que en ella se pronosticaba. Nicolás RG me ha alertado de la existencia de una breve comunicación en Scientometrics donde se comparan el factor de impacto y este otro.

Nicolás también me ha dirigido al post del blog del Centre for Science and Technology Studies de la Universidad de Leiden donde Ludo Waltman, disecciona un poco este nuvo indicador y, como yo, enfatiza su facilidad de cálculo.

Gracias Nicolás.