Caliente, tanto que la cosa está que arde

Soy gran amante de la molicie, pero no hasta el extremo de apuntar a dos o tres recursos y sitios Web y seguir cultivando primorosamente mi pereza ¿ O sí ?. Dejémoslo en un “podría ser” y consideremos estas notas sólo una supuesta excepción a una pretendida regla.

bocassa

Vale, no es el símbolo de John Pasche para los Rolling, pero para el caso…

Hacia principio de los 2000 comencé a sentir en carne propia los efectos de los “big deal“, esos contratos que luego se revelaron draconianos y que a la larga obligaron a cancelar suscripciones a las ediciones impresas de las revistas científicas, sustituyéndolas por los accesos a sus versiones electrónicas. De repente, una serie  de fascículos, ininterrumpida desde los años 40, se truncaba y era sustituida por algo intangible que podía, llegado el caso, desaparecer del panorama, dejando a las mejores bibliotecas y a sus usuarios compuestos y sin “papers“.

El secretismo que rodeaba esos acuerdos o contratos y, sobre todo, sus importes, se empezó a cuestionar en 2014, cuando un gran equipo de investigación, encabezado por Theodore C. Bergstrom, del departamento de Economía de la University of California, en Santa Barbara y echando mano de la ley americana de liberta de información, la Freedom of Information Act, publicó un estudio demoledor. Fue éste el estudio cuyos cálculos resultaron en el famoso 36 por ciento:

There is ample evidence that large publishers practice price discrimination and that they have been able to set prices well above average costs. In 2011, the journal-publishing divisions of Elsevier, Springer, and Wiley reported profits equal to 36%, 33.9%, and 42%, respectively, of their sales revenue…

Un paso más acá en el tiempo y en el espacio y nos encontramos con el extraordinario reportaje de Stephen Buranyi sobre las interioridades del negocio de la edición científica, incluyendo un repaso biográfico al garn “halcón” del sector, Robert Maxwell (nada que ver con James Maxwell y el electromagnetismo). Yo no leí su reportaje, lo oí, pero existe versión legible en las páginas de ciencia de The Guardian.

La siguiente estación nos pilla de lleno, nos quema: es el informe de Antonio Villarreal con datos de Jesús Escudero sobre la factura que Elsevier presenta cada año a las instituciones españolas de investigación. Los malos suelen venir en banda y a Elsevier, señalado en este trabajo perodístico, cabría añadir a Springer, Wiley y demás multinacionales.

Aplaudo la iniciativa y el trabajo de los periodistas, pero me entristece y avergüenza que, en aras de una pretendida “racionalidad de los recursos” el sistema español de ciencia, educación y tecnología se baje los pantalones antes auténticos desalmados de los negocios. Y que ni uno de los representantes electos se haya significado con la más mínima declaración…

Primera actualización

Esta última frase ha dejado de ser cierta. Dos diputados del partido Ciudadanos, Marta Martín Llaguno y Rodrigo Gómez, han presentado en el Parlamento Español una serie de preguntas dirigidas al Gobierno y centradas en el importe del gasto, el contraste con las cifras de otros países europeos y los posibles mecanismos de ahorro.

Segunda actualización

Lo periodistas de Teknautas están exprimiendo el tema. En esta entrega, sin embargo, han deslizado varios errores de bulto y, sobre todo, una acusación que no sostienen. Afirman que “Elsevier paralizó una ley clave” para proteger su negocio. Se refieren a uno de los artículos de la Ley de la Ciencia y no veo que su texto soporte una afirmación tan grave. A cambio, informan de algunas iniciativas nacionales sobre repositorios (Scipedia) y de otras de edición de artículos y revistas de acceso abierto (MDPI).

 

 

 

Advertisements

P.U.R.I., la indicadora

 

Introducción
Cada investigador intenta seguir y leer los trabajos de las revistas que le merecen confianza. Cada investigador publica (o lo intenta) en las revistas que sigue y lee. De estas premisas se sigue que la publicación esa muestra de confianza y que, cuanto mayor es el número de investigadores o grupos que publican en una revista, mayor es el crédito que le conceden como fuente de información científica.

NOwak

Nevado y de Till Nowak (como el video). No podéis pedir más para estas fechas del año…

Las revistas, entonces, son más influyentes cuanto mayor es su popularidad, medida por el número de grupos de investigación que les someten sus trabajos.

Según Pablo Tusset, lo mejor que le puede pasar a un cruasán (sic, Lengua de Trapo, 2001) es que lo unten con mantequilla. Según casi todos los demás, lo peor que le puede pasar a una revista científica es ser librillo de pocos maestrillos.

Método
Esta PopUlaridad de las Revistas de Investigación (P.U.R.I.) es un cociente de cálculo simplón: tómese el número de instituciones diferentes que han contribuido trabajos a la revista en un periodo dado y divídase por el número de trabajos publicados en ese periodo. Yo he calculado la PURI para la Revista Clínica Española y para Medicina Clínica, ambas revistas españolas de Medicina Interna, fundadas en los años 40 y en poder de Elsevier desde hace algunos años.

Resultados
Medicina Clínica publicó 332 trabajos en 2016, casi tres veces más que la Revista Clínica Española, que publicó 121. Por comodidad, he tomado como denominador sólo aquellos trabajos con contribución de centros españoles y como numerador el número de instituciones diferentes (españolas o no) donde se han realizado esos trabajos.
La PURI de Medicina Clínica es 594/301 = 1,97 y la de Revista Clínica Española de 275/114 = 2,41. Sorprendente, pero real.

Conclusión
Dejo para otra ocasión la comparación entre, pongamos, la Revista Colombiana de Educación y la titulada Actualidades Investigativas en Educación, que queda como trabajo pendiente. Y planteo que PURI no sólo está llamada a participar en el baile de cuantos Latindex, CIRC, ERHI, CARHUS, DICE, MIAR son, sino que será, con diferencia, la más guapa de ese baile, gran cotilla denunciadora de endogamias y chiringuitos.
Lo que suscribo hoy, que es 28 de diciembre, y acompaño de una recomendación especial, no sólo musical.

Una de Hichtcock (con plumas)

El averío lo empezó Elsevier, que no tuvo otra idea que elegir, para su sistema de información bibliográfica, el nombre científico del avemartillo. Dicen fuentes bien informadas— y suscribo yo— que cuando se juega al gigantismo es razonable emplear el nombre del pajarraco que mayores nidos construye para denominar el sistema con la mayor cobertura de los existentes, Scopus. La jugada fue buena: siempre he sospechado que Scopus concede ventaja a las 2969 revistas que como editorial publica la propia Elsevier.
Peero llegó el cuervo, mi querido cuervo, a revolucionar el corral: Sci-Hub, el repositorio que, desafiando a los grandes comerciantes de la información y las revistas científicas, ha resuelto en buena medida los problemas de acceso al documento de millones de investigadores. Picotazo a picotazo, todas las grandes empresas comerciales de edición científica se están viendo afectadas por el cuervo que sujeta la llave y que, de momento, evita la jaula— aunque penosamente— saltando de dominio en dominio.

piolin

Pues bien, hay pájaro nuevo en la bandada: en Junio de 2017, Peter Vincent comunicó la puesta en marcha de Canary Haz, que hasta donde yo sé significa canario flauta. Sin duda tratando de evitar algún que otro malentendido, a este pequeño piolín le han mudado el nombre a otro más pretencioso: ahora se llama Kopernio.
Se trata de otro sistema más que parte de referencias de artículos científicos y obtiene los correspondientes documentos íntegros Lo que es conseguir PDFs, vamos. Pero no lo hace cargando precios abusivos por unas pocas páginas, como las editoriales comerciales que Sci-Hub fustiga; ni a la brava, almacenando PDFs a manos llenas y distribuyéndolos bajo demanda de forma (que decía el otro) “dudosamente legal”. Consigue no sólo acceso libre a los documentos gratuitos, también a aquellos otros cuyo acceso está contratado por la biblioteca de cada institución.
Para ponerlo en funcionamiento, son necesarios tres pasos.
El primero es la instalación de un pequeño programa que se adapta al navegador como extensión (o plugin). Cada vez que obtenemos los resultados de búsqueda en sistemas como Google Académico o PubMed, un rótulo nos informa de la posibilidad de buscar los PDF.
El segundo es el registro personal y gratuito en el sistema. Eso incluye, además del nombre y una contraseña, la dirección de correo electrónico institucional. ¿ Por qué ? Pues porque en el tercer paso o requisito, que consiste en seleccionar la universidad o centro a los que cada uno está afiliado, Kopernio nos identificará como miembros de la institución, averiguará las credenciales y permisos del sistema bibliotecario en cuestión y de esa forma permitirá el acceso a los PDFs de los artículos y revistas incluidos en las suscripciones institucionales, tanto on- como off-campus.

¿ Alguien recuerda con qué cariño Melanie Daniels (Tippi Hendren) compra un pajarito al principio y con qué lastimero aspecto queda malparada  al final en Los Pájaros ? Bueno, pues en nuestro corral también hay sus peros.
Conseguí instalar el plugin y registrarme personalmente en piolín (Kopernio, abreviando) pero no pude identificar ninguna de mis filiaciones institucionales en su lista de autorizadas. Nada extraño teniendo en cuenta que el sistema se encuentra aún en la fase alfa de desarrollo.
Por otra parte, para identificar y obtener los PDF, piolín recurre a revistas de acceso abierto, repositorios institucionales, servidores de preprints… exactamente igual que hacen PubMed (a través de su conexión con PubMed Central) o Google Académico, que enlaza con Arxiv, BioArxiv y otros servidores, además de extraer documentos de plataformas tipo ResearchGate e incluso de páginas personales. Si podemos recurrir a todo eso y, vía VPN, conectar off-campus con los recursos contratados por nuestra institución ¿ Tiene sentido piolín ? Probablemente no. Aunque hablemos de investigadores en situación realmente precaria, con recursos de información limitados o nulos, me cuesta creer que Kopernio vaya a resolverles la papeleta más que la combinación de los recursos ya existentes, incluyendo los de “dudosa legalidad”.
De verdad que no lo veo.

REDoC, TESEO y otras hierbas

Hace tiempo que vengo aplazando mis críticas a la Revista Española de Documentación Científica (REDoC) de la que hay muchas cosas que no me gustan. Mientras las maduro, dedico aquí algunos comentarios sólo al contenido de su número más reciente. Igual interesan a otros.
De los ocho artículos que contiene, seis son de estilo bibliométrico, con tres de ellos centrados en la evaluación; los otros dos trabajos proceden del campo de la biblioteconomía.

oxigeno
El grupo “Políticas de información, Tecnologías de la Documentación y Comunicación Científica” de la Universidad Complutense de Madrid firma el trabajo más interesante de los de estilo cuantitativo. Su artículo me parece valioso porque aborda el manejo de la base de datos TESEO, un registro de las tesis doctorales aprobadas en las universidades españolas que, con ser público, es de utilidad muy limitada y de escaso aprovechamiento. El problema es que no contempla la descarga masiva de registros y, así, se dificulta el análisis de su contenido. Empleando minería de datos, los autores han obtenido algo menos de 200.000 registros de otras tantas tesis y realizan un estudio descriptivo que abarca 37 años. Critican adecuadamente la calidad de su fuente; ponderan razonablemente sus resultados y presentan datos interesantes que algo avanzan sobre las estadísticas oficiales de las tesis doctorales españolas disponibles. Su mérito hubiera sido mayor si pusieran a disposición de otros investigadores los registros que han descargado. Quizá así se consiguiera que el Servicio de Coordinación y Seguimiento Universitario o quien sea responsable del registro de las tesis aprobadas en las universidades españolas lo haga público de verdad.
Los dos trabajos del grupo de la Facultad de Comunicación y Documentación de la Universidad de Granada siguen la práctica de aprovechar la aparición de nuevos recursos de información para explorar su utilidad como fuentes de datos bibliométricos. Enrique Orduña y su grupo insisten en Google Scholar mientras Rafael Repiso centra su trabajo en dos colecciones recientemente añadidas a la Web of Science.
El análisis de las publicaciones españolas sobre investigación de la comunicación radiofónica y el examen de las listas de revistas “autorizadas” (una traducción demasiado libre de la expresión de Alesia Zuccala) cierran el apartado de trabajos bibliométricos.

Mi compañera JuliaO y su equipo han examinado la publicación de trabajos de los investigadores que forman parte de los comités editoriales de revistas de Psicología en esas mismas revistas. Por lo que parece, hay beneficios para ambas partes: los investigadores publican más y con mayor rapidez y esos artículos atraen más citas para las revistas. Miel sobre hojuelas.
Sobre la promoción de la lectura o la motivación a la lectura se vienen publicando entre 40 y 50 artículos por año en revistas internacionales. En España han aparecido más de 40 libros, más de 100 tesis y cerca de 500 trabajos sobre el tema. Gemma Lluch y Sandra Sánchez realizan una revisión de estos trabajos muy limitada, tanto que sus conclusiones apenas tienen validez. Sin embargo, me parece estupendo que la Revista Española de Documentación Científica publique revisiones, incluso que anime o encargue su elaboración. Podría así atraer la atención de más lectores, ejercer mayor influencia en su entorno y traducir eso (que es lo que realmente importa) en una mayor cantidad de citas (que sólo son un reflejo de lo que importa).

Debilidad por el cuervo

Nadie me creyó cuando afirmé que los cuervos de Berlín no eran negros y marcaban el paso de la oca, así que me faltó tiempo para captar a uno en uno de sus paseos.

cuervoberlines
Tomo la anécdota como excusa para referirme muy brevemente a una noticia que supe ayer: la casa editorial Elsevier demanda a Sci-Hub y LibGen el pago de 15 millones de dólares. Y veréis por qué.
Sci-Hub almacena 62 millones de copias de artículos de investigación y bastantes libros. Cualquiera, desde cualquier parte, puede obtener una de ellas sin coste adicional alguno.
Supongo que la actividad de Sci-Hub puede no ser legal. Supongo que la actividad de Elsevier es legal. También creo que la actividad de Sci-Hub no debería perseguirse y que se deberían cuestionar las maneras de Elsevier. Como frente a otras diatribas, no me he formado una opinión, pero he adoptado una postura. Desde estas notas he enlazado con frecuencia las versiones electrónicas de artículos de investigación. En ocasiones, y ante la sospecha fundada de que algunos trabajos no serían accesibles a todo el mundo, he empleado el enlace que me proporcionaba Sci-Hub cuyo anagrama es (qué coincidencia) un cuervo que sostiene una llave.
La fundadora de Sci-Hub, Alexandra Elbakyan, aún no ha cumplido los 30 y ha sido considerada una personalidad relevante para la ciencia y mencionada junto a Edward Snowden, quien ha sido y es relevante para todo el mundo. De momento, el destino de Alexandra es diferente al de Aaron Swartz, un campeón de los formatos libres en Internet, que fue hallado muerto poco tiempo después de ser acusado de una descarga masiva de archivos PDF almacenados en JSTOR.

No dejan de repetirme que la investigación científica es desinteresada y no tiene fronteras. Suelo responder con mi sonrisa más cínica: del trabajo desinteresado de los científicos hay quien  extrae un grandísimo interés y, por mucho que se cacaree lo de la “república de las letras”, todos los premios Nobel tienen pasaporte.

Sabemos lo que pasa cuando el grajo vuela bajo, así que más vale que el cuervo siga marcando el paso de la oca largo tiempo.

Autoría científica: ¿ baile de vampiros o merienda de negros ?

Hace tiempo que no me topaba con John Walsh. Junto a su pupila Li Tang, este profesor del Georgia Institute of Technology propuso en 2010 un método para resolver la homonimia de los autores de trabajos de investigación mediante el análisis de sus listas de referencias bibliográficas. Recuerdo haber criticado el método sin ninguna base sólida, pero con la sospecha de que los cambios en las líneas de investigación se podrían traducir en cambios en la base de conocimiento de los autores y, en consecuencia, en su perfil de referencias. Hace tiempo que las limitaciones de la capacidad de cálculo en los ordenadores a mi alcance me hicieron renunciar a comprobar empíricamente mis objeciones.

OBaileDosVampiros-02

Dance of the Vampires (Roman Polansky, 1967)

Ahora vuelvo a coincidir con Walsh porque, mientras he concluido estos días un primer trabajo sobre autoría y me dispongo a analizar los resultados de otro sobre parecido tema, me he topado con que, junto a su colaboradora Sahra Jabbehdari, ha publicado un artículo sobre el mismo tema. Y me parece muy, muy bueno.
En “Authorship Norms and Project Structures in Science” Walsh y Jabbehdari examinan la correspondencia entre la contribución de cada investigador en el desarrollo de un proyecto científico y su aparición en (o exclusión de)  las listas de autores de las publicaciones resultantes siguiendo las normas convencionales de autoría. Su objetivo principal es:

…to develop an understanding of some of the drivers of authorship lists (and how those vary systematically by field and by project characteristics net of field) in order to address concerns in the sociology of science and in science policy about the meaning of authorship lists for the evaluation and carees in science.

La introducción del cualquier artículo científico exige un balance entre las definiciones, los razonamientos retóricos y la bibliografía. Las definiciones responden a la pregunta ¿ Qué se investiga ? Los razonamientos responden a la cuestión ¿ Por qué se investiga ? y las referencias bibliografías tratan de responder a la pregunta ¿ Para quién es relevante la investigación de ese tema concreto ? La retórica de una buena introducción requiere de un balance exquisito entre las tres respuestas. En el trabajo de Walsh, sin embargo, el equilibro se rompe en favor de una revisión bibliográfica que a mí me parece excesiva. Las tres ideas básicas de esta sección son: 1) existen criterios para “elevar” a un colaborador al rango de autor; 2) esos criterios no siempre se respetan, y 3) la aplicación de los criterios depende de la cultura de cada grupo o especialidad científicos.
La tercera sección de la introducción discute si las expectativas de un alto impacto del trabajo, los visos de su aplicación comercial y el grado de colaboración institucional que ha exigido su realización pueden predecir la inclusión de más o menos autores en los artículos.
Tras seleccionar una muestra de trabajos de investigación, Walsh y Jabbehdari someten a sus autores correspondientes a una encuesta para que determinen el papel que los firmantes de los trabajos han desempeñado. Los resultados del trabajo son espléndidos, muy robustos, pero sus conclusiones no albergan muchas sorpresas. Ya sabíamos que

authorship lists are the result of a complicated process involving negotiations, field norms, and differences in visibility and that these vary across projects in systematic ways

Y también que

authorship practices may be changing in the age of bureaucratic science. Hence, there is a need for authorship policies and norms that are fitted to this new bureaucratic science structure

La  terminología de Jabbehdari y Walsh me resulta ambigua. Llamar especialistas a aquellos autores que realizan aportaciones puntuales al trabajo no tiene nada de particular, pero hacer equivalentes estos specialist authors a los “guest” authors, autores honoríficos, no me cuadra. Del mismo modo, también me choca que se denominen “nonauthor collaborators” a los autores denominados fantasma (ghost) o negros. Pero recomiendo encarecidamente la lectura del trabajo y agradezco muchísimo que hayan ampliado el estudio de la autoría de trabajos científicos e introducido la forma de identificar o investigar esas dos figuras.
No soy ingenuo: las continuas revelaciones de falta de ética, plagio, reinados de taifa y otras perversiones me hacen suponer que no cesará la picaresca de los investigadores. Pero no conozco actividad humana que no tenga aprovechados, precarios, chupasangres, negros y fantasmas. Trabajos como el de Jabbehdari y Walsh, sin embargo, pueden contribuir a mejorar las directrices y los criterios de una honesta autoría.

¿ Revisiones rápidas o revisiones limitadas ?

En Junio de 1997, tres médicos británicos publicaron un artículo cuyo título comenzaba por “Rapid and responsive health technology assessment”. Ha sido identificado como el primer trabajo que describía lo que, andando el tiempo, se ha venido a denominar “rapid reviews”, revisiones rápidas.

 

Roadrunner

Dos fotogramas de uno de los capítulos del Correcaminos

Hace bastante tiempo que elaboré varias notas sobre las revisiones y no hace tanto que también publiqué un comentario sobre el retraso de publicación. Como ahora, 20 años después, se acaba de publicar un artículo especial (el primero en España) sobre las revisiones rápidas, aprovecho para opinar, como casi siempre a la contra.

La definición de revisión rápida

Una revisión (bibliográfica) se elabora a partir del examen de materiales previamente publicados sobre un tema determinado. Una revisión sistemática se ajusta a un procedimiento normalizado para la selección de esos materiales previos y para la evaluación de su utilidad como evidencia científica. Pues bien, Ferrán Catalá López y sus colaboradores ofrecen una traducción muy adecuada de la definición de revisión rápida:

Una revisión rápida puede definirse como una revisión de la literatura científica que utiliza métodos simplificados y acelerados en comparación con una revisión sistemática tradicional.

Sin embargo, no me resisto a acotar esta otra definición operativa, que procede del trabajo previamente enlazado y tiene cierta elegancia:

“… a rapid review is a type of knowledge synthesis in which components of the systematic review process are simplified or omitted to produce information in a short period of time”

Catalá y sus colaboradores han elegido dos ejemplos de revisiones rápidas: una sobre la mejora de la asistencia en el centro canadiense donde trabajan;  la segunda como respuesta (del mismo centro) a una consulta de la Organización Mundial de la Salud sobre la indumentaria de protección frente al virus del Ebola.

¿ Revisiones rápidas  o revisiones cortas ?

De las alrededor de 150 revisiones rápidas publicadas en los últimos años, sólo unas 20 se salen del ámbito de la Medicina. Las revisiones rápidas parecen útiles para guiar por la evidencia determinadas decisiones en el campo de la práctica clínica o la Epidemiología. Pero, de los ejemplos que Catalá aporta y otros parece desprenderse la idea de que las revisiones rápidas se realizan por encargo. De hecho, el propio Catalá se refiere a “su naturaleza exploratoria, dirigida generalmente a informar una decisión”. Nada que objetar, pero tengo dos cuestiones.
La primera ¿ Son las revisiones rápidas útiles desde el punto académico ? Yo diría que la respuesta a esta pregunta es “no”. La propia Sharon Straus y sus colaboradores resumen así los resultados de la revisión de las revisiones rápidas que realizaron:

Streamlined methods that were used in the 82 rapid reviews included limiting the literature search to published literature (24 %) or one database (2 %), limiting inclusion criteria by date (68 %) or language (49 %), having one person screen and another verify or screen excluded studies (6 %), having one person abstract data and another verify (23 %), not conducting risk of bias/quality appraisal (7 %) or having only one reviewer conduct the quality appraisal (7 %), and presenting results as a narrative summary (78 %)

Es decir, los autores abrevian el procedimiento de revisión sistemática limitando de una forma u otra el número de trabajos previos que recopilan. No es lo que yo recomendaría a un estudiante de postgrado, desde luego. Y, la segunda cuestión ¿ Aportan alguna mejora a la diseminación de la información científica ?.
Veamos, la primera de las revisiones que Catalá describe apareció publicada el 31 de Enero de 2012, pero ya se había emitido el informe interno resultante con anterioridad, con bastante anterioridad— en Febrero de 2011. La segunda revisión, la dirigida a la OMS, apareció en una revista de publicación rápida el 9 de Octubre de 2015. El tracing indica que llegó a la redacción el 16 de Julio de se año. ¿ Tiene algún sentido que las revisiones de los ejemplos— que se realizaron en cuatro y siete semanas— tardaran 44 y 11 semanas respectivamente en publicarse ?. Los retrasos de publicación son una gran losa. Si con las demás revisiones rápidas pasa lo mismo, si son rápidas porque son cortas y si sólo son puntuales en su entrega a quienes las encargaron, entonces no merece la pena que se consideren siquiera un subgénero en comunicación científica.

Me temo que se avecinan días difíciles así que hoy nada de música.