Publicada By  Juan Marin - Ciencia, Investigaci√≥n, Uncategorized    

Con frecuencia recibo consultas acerca de mi opini√≥n sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios a√Īos como subdirector de investigaci√≥n del Departamento de Organizaci√≥n de Empresas en diferentes equipos. O quiz√°s sea por el seguimiento y apoyo que he dado a la comisi√≥n de Indice de Actividad Investigadora de la UPV a trav√©s de una cantidad bastante elevada de “gregales” (sistema de gesti√≥n de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los √ļltimos 10-12 a√Īos. Tambi√©n es posible que me pregunten por mi experiencia con todo el sistema de indexaci√≥n ya que soy editor jefe o participo en el comit√© editorial de varias revisas “indexadas”.

La √ļltima tanda de preguntas recibidas ten√≠a que ver sobre si se pod√≠a considerar como “indexada” determinada revista. Interesante cuesti√≥n que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminolog√≠a:  no se deber√≠a hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en alg√ļn sitio, es decir estar dada de alta en una base de datos de revistas cient√≠ficas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero tambi√©n en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad est√° en definir cu√°les de los indices relativos son fiables y d√≥nde est√°n los puntos de corte para marcar revistas de prestigio si el √≠ndice no crea bloques o cuartiles. Por ejemplo, Scimago JCR adem√°s del √≠ndice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Cop√©rnicus solo ponen un numero (cuanto m√°s grande mejor, pero no sabes los puntos de corte por niveles).

A estos √≠ndices se pueden a√Īadir aquellos desarrollos locales (nacionales, auton√≥micos, de una universidad o de una asociaci√≥n cient√≠fica) que se hayan creado con un fin espec√≠fico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cu√°les son las revistas de m√°s a menos prestigio; o, por poner un √ļltimo ejemplo,  la UPV tiene una clasificaci√≥n de revistas en 4 niveles (ahora est√°n modific√°ndolo para que sean 6), creada por la comisi√≥n del Valoraci√≥n de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos cient√≠ficos en la que la UPV se mueve y lo hace con el esp√≠ritu de que sea JUSTA la comparaci√≥n inter-disciplinas. Adem√°s,  tiene un sistema de decisi√≥n auditado, sensato y establecido durante a√Īos). Por supuesto, ninguno de estos ejemplos es perfecto (no s√≥lo porque es dif√≠cil tener claro el criterio que hace que una revisa cient√≠fica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a trav√©s de un consenso y que permiten tener un sistema m√°s ajustado y acorde a las necesidades concretas de una instituci√≥n.

Personalmente creo que, adem√°s de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quiz√°s, los m√°s claros para el campo de la Organizaci√≥n de Empresas en Espa√Īa ser√≠an:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliom√©tricos m√°s potentes y categorizaciones).

Para finalizar, quer√≠a expresar una preocupaci√≥n que me ha empezado a rondar por la cabeza. Me temo que pronto se disparar√° el negocio de crear indexadores. Hasta ahora, los √≠ndices de revistas que se valoran en Espa√Īa est√°n en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quiz√° Google se puede incluir en este paquete). Nos  hemos fiado de sus “rankings” porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). Tambi√©n hay √≠ndices que  han sido desarrollados por colectivos cient√≠ficos independientes apoyados con fondos p√ļblicos nacionales aunque, parad√≥gicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (tambi√©n es cierto que Espa√Īa est√° financiando el desarrollo de JCR y scimagoJCR a trav√©s de la suscripci√≥n de la FECYT de SCOPUS y WEBofScience para todas las universidades p√ļblicas espa√Īolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orient√°ndolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habr√° gente est√° dispuesta a pagar una fortuna para que sus revistas est√©n en la parte TOP de alg√ļn indice -independientemente de las garant√≠as cient√≠ficas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

2016/11/23
  Comentarios
|   Etiquetas: |