¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de “gregales” (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas “indexadas”.

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como “indexada” determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus “rankings” porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

Visitas: 75