Como localizar el impacto relativo de un articulo científico (medido como citas)

En primer lugar, me gustaría aclarar que el impacto de un articulo mucho más que medir sus citas en un determinado proveedor de servicios de indexación de revistas científicas. Lo que pasa es que contar las citas es sencillo (si te conformas con los datos que te proporciona Clarivat/WOS, Scopus o Google Scholar), lo que no quiere decir que sea relevante, ni sea «verdadero» impacto. Es la versión de impacto más sencilla y, a veces, la única que podemos calcular de manera práctica.

Con esto en mente, la pregunta que intentare resolver en esta entrada es ¿cómo saber si un artículo científico publicado es más citado o menos que los artículos similares?

De nuevo tengo que hacer una suposición que no es menos drástica y no genera menos sesgo que la de asumir que impacto = citas. Se trata de asumir que un artículo es similar si:

  1. Se ha publicado el mismo año. Aunque no es lo mismo que se publique en enero, que en diciembre, o que haya estado años en «advanced online» sin fecha definitiva de publicación… Sobre todo cuando la fecha de publicación es reciente, porque aún teniendo el mismo año de publicación un articulo puede estar expuesto al circuito de citas el doble, triple o incluso cuatro veces más de tiempo que otro (de modo que muy similares no serían)
  2. Son del mismo «tema» o «área de conocimiento». La idea de fondo es que hay áreas o comunidades científicas donde los circuitos de maduración de citas (el tiempo habitual que se tarda en ser citado, el numero habitual de citas recibidas y el tiempo que tardas en pasar a ser difícilmente citable por «antiguo») es muy diferente. El problema es que tanto Clarivate/WOS como Scopus tienen un método un tanto cuestionable (no solo por su poca transparencia, sino por sus patentes fallos de clasificación) de decidir en qué área colocar un articulo y, por lo tanto, establecer el conjunto de artículos similares con el que comparar

Por último, debemos asumir que disponemos de acceso a plataformas de pago que hacen el trabajo por nosotros (no conozco ningún servicio gratuito que permita realizar lo que voy a comentar en esta entrada). O pagas una suscripción a Clarivate/WOS o a Scopus, o la paga la institución para la que trabajas. Pero, al menos con mis conocimientos, esto no lo puedes hacer sin rascarte el bolsillo o que alguien se lo haya rascado por ti (o hayas pirateado o usado materiales al margen de las condiciones de uso exclusivo que permiten Clarivate/WOS o Scopus).

En este contexto, y solo en este contexto, es posible dar algunas respuestas a la pregunta.

Advertencia: el procedimiento, enlaces y pantallazos se corresponden a cómo resolver esto en octubre de 2021. Como las plataformas cambian con relativa frecuencia, es posible que las rutas o ubicación de las opciones sea completamente diferente el día que vayas a intentar hacerlo tu.

Primera Opción: las herramientas de indices de impacto que proporciona la suscripción de recursos científicos de FECYT

Accedes a la página principal (si no tienes suscripción, no podrás pasar de ese paso): https://www.recursoscientificos.fecyt.es/

y eliges la opción «indices de impacto» en los botones negros grandotes

y en la nueva página eliges el sub-menú «Tablas de citas mundiales» (botón en gris en la parte superior)

En el momento de redactar la entrada si buscas con google «tablas de citas mundiales» los primeros resultados de la búsqueda apuntan directamente a ellas.

Estas tablas se actualizan una vez al año (sobre noviembre o diciembre) y sólo están disponibles hasta 3 años antes del momento en el que buscas (pues se considera que con menos tiempo, la posibilidad de recibir citas es muy escaso y las tablas no tendrían mucha utilidad, ni fiabilidad). En cualquier caso, si un articulo publicado hace menos de 3 años ya mejora los indicadores de los que aparecían hace 3 años, es muy buena señal de que tiene un «impacto en citas» que se podría considerar excelente (o al menos superior a la media de articulo que llevan mucho mas tiempo en el «expositor»).

Ten en cuenta de que hay tablas para WOS y tablas para Scopus. Porque cada una de ellas se crea con una fuente de datos diferente y con una metodología de agrupación por area temática muy, muy, pero que muy diferente (no te comparas con el mismo conjunto de artículos en WOS que en SCOPUS). Podréis preguntarme «si me salen datos muy diferentes, ¿cual sería el más adecuado para usar en «mi área»». La respuesta sencilla, es: si miras las citas en WOS usa la tabla de WOS y si las miras en Scopus, pues la de Scopus. Pero si lo que te pasa es que cuando comparas WOS te sale muy bien y cuando comparas Scopus te sale muy mal (que tienes menos citas que el promedio), o al revés. Entonces no me atrevo a dar una respuesta más allá del depende. Lo que si es cierto (eso es un dato objetivo) que, la cobertura de revistas del área de ciencias sociales y en especial en los campos relacionados con la administración de empresa (management), a fecha de 2021, es mucho mayor y mejor en Scopus que en WOS. Además, en scopus hay una división mucho más específica por sub-áreas dentro del campo de administración de empresas (Marin-Garcia y Alfalla-Luque, 2018). Pero «hasta aquí puedo leer». Que haya más cobertura de revistas o más clasificaciones no quiere decir que las agrupe mejor (quizás las agrupe igual de mal que WOS). Resolver esto daría para un artículo científico (animo a quien quiera a que lo haga y si no sabéis a qué revisa mandarlo, en JIEM o en WPOM estaríamos encantados de poder evaluarlo).

Además en cada una de las dos situaciones anteriores tienes dos tablas. En la primera tienes los «descriptivos» de las citas promedio recibidas por los artículos científicos publicados en determinados años, en cada área. En la segunda, para calcular el promedio se han incorporado también «conference proceedings«. Yo, personalmente, creo que solo tiene sentido la primera… pero si alguien se ha tomado la molestia de hacer dos tablas por algo será (como decía «La Bombi» en los casposos años del 1-2-3).

Esta es la información que proporcionan las tablas de citas. Tangase en cuenta que Dirección de Operaciones (Operations Management) no existe como campo, de modo que supongo que hay que considerar los «miscellaneous de business» o business en general como área de comparación. Pero oye, igual a otras personas les parece mejor otra cosa

Vaya… quizás tendría que haber pedido permiso a Elsevier para publicar esta foto.. Bueno, cuando tenga tiempo me dedico a escribir un párrafo que resuma algo de la información y pixelo esta tabla
Si, WOS, con vosotros también lo haré… pero cuando tenga tiempo.

Segunda Opción: las métricas a nivel de articulo que proporcionan WOS o Scopus

Scopus lleva años (al menos desde 2018) publicando el «citation benchmarking» y el  «field-weighted citation impact» , que se definen y calculan como se muestra en la figura (si quieres más información: Learn more about Article metrics in Scopus).

Definición del F-W citation impact de Scopus
Citation benchmarking

Esta información aparece en la página del articulo (cuando pinchas sobre el título del artículo en los resultados de una búsqueda para que te muestre la información completa). Hace un tiempo era en la parte lateral derecha, ahora está en la parte inferior de la páginas después del resumen… dentro de un tiempo estará en otro sitio.

Junto con el  Field-Weighted citation impact (recordad, 1 es que está mas citado de lo esperado) se puede ver el Citation Benchmarking: percentil correspondiente al número de citas del articulo cuando se compara con todos los articulos de scopus publicados en la misma fecha. En la figura, 6 citas en 2016 significa estar en el percentil 59%, lo que puede considerarse un impacto en citas notable dentro de Scopus.

he resaltado en azul oscuro la zona donde se ve la información

WOS se ha incorporado recientemente (2020) a las métricas a nivel de articulo con su «beamplot«. En estos momentos para acceder a estas métricas debes entrar en la página «personal» de cada investigador (Author Profile). Es decir, que no ves esta métrica cuando entras en la información del artículo. Tienes que localizar primero al autor-a

y luego pinchas en el vínculo que hay en su nombre

tras pulsar el enlace a un autor-a, te lleva a su página de perfil

y en la página que se abre con el perfil del autor, te desplazas hacia abajo hasta que encuentres el «Author Impact Beamplot Summary) (insisto, ahora está en la parte de abajo de la página, tras todas las citas de lo publicado. Pero pueden colocarlo en cualquier otro sitio en el futuro). Para ver los detalles, pulsa el botón «View full beamplot»

Los datos que se presentan son los mejores percentiles de citas de cada articulo comparando con artículos similares (si está en varias categorías se muestra el mejor). Más información en http://webofscience.help.clarivate.com/en-us/Content/author-record.html#Web

(solo se incluyen artículos del tipo «article» o «review» data papers u otras contribuciones científicas son ignoradas, de momento, en el «beamplot».

Una forma más rápida puede ser velo desde la cuenta de Publons (si te has creado una cuenta de estas. Es un producto derivado de WOS que promocionaron mucho hace dos años)

Resolvamos un caso práctico

¿Qué posición respecto a impacto en citas tendría este artículo?
Garcia-Sabater, J. J., & Marin-Garcia, J. A. (2011). Can we still talk about continuous improvement? Rethinking enablers and inhibitors for successful implementation. International Journal of Technology Management, 55(1/2), 28-42.

(datos recogidos el 29 de septimbre de 2021)

Opción 1:
36 citas Scopus; 36 citas en WOS

El artículo es de 2011, y la temática es de dirección de operaciones, de modo que voy a la tabla de citas de Scopus en la categoría de miscelánea dentro de Business y management, el promedio de citas para artículos de ese año son 13,8. Como el articulo tiene 36 es citado más del doble que el promedio. Si voy a la de WOS en Business es 18.16 y en management es 20,6, de nuevo 30 citas en WOS es casi el doble que el promedio de artículos de ese año en la categoría.

Opción 2:

WOS Beamplot: Busco el perfil de uno de los autores (en este caso el segundo autor), Me desplazo hasta la parte de la página donde esté el gráfico «beamplot» y pulsa el botón «view full beamplot»

y si paso el ratón por encima de uno de los artículos puedo ver los detalles. En este caso voy pasando por todos los de 2011 hasta encontrar el que me interesa. 36 citas en WOS para éste lo sitúa en el percentil 90

Scopus FWCI: busco el artículo en Scopus. En la pagina de detalle abro el campo de «metrics» y las 36 citas para un articulo de 2011 indica un percentil 45% y el FWCI es de 0.26 (que está alejado de 1).

Puede llamar la atención la diferencia de resultados (sobre todo cuando se compara con la tabla de citas de Scopus, que es la misma fuente de datos). Pero no olvidemos que:

The FWCI is the ratio of the document’s citations to the average number of citations received by all similar documents over a three-year window

Seguramente el FWCI no es un buen indicador para articulos antiguos (que seguramente ya no se citan en los últimos tres años, que parece que es la ventana que consideran).

Referencias:

Visibilidad de buenas prácticas educativas: propuesta de investigación-acción en Universidad

Este será uno de los capítulos de mi proyecto de oposición
 

 
 
El objetivo de esta investigación acción es conocer cuáles son las expectativas de un conjunto de docentes respecto a la visibilidad de buenas prácticas educativas en el contexto de educación superior (universidad). Analizaremos la relación entre impacto y visibilidad de las buenas prácticas, exploraremos lo diferentes ámbitos donde se puede localizar el impacto, en qué ámbitos se plantean el impacto de sus buenas prácticas educativas y por qué, lo qué les preocupa, dónde encuentran las principales barreras o dudas, qué necesitan para poder tener una mejor visibilidad y si la rúbrica planteada en la editorial reciente (titulada: Experiencias docentes basadas en investigación-acción: guía para publicar en revistas científicas) es una herramienta útil para fomentar una mejor difusión de estas iniciativas.
Las personas participantes son una muestra de conveniencia de tamaño muy reducido, por lo que las conclusiones extraídas no pueden generalizarse y deberían estudiarse con muestras más amplias en investigación futura.
<a href=’https://www.freepik.es/vectores/escuela‘>Vector de Escuela creado por macrovector – www.freepik.es</a>
<a href=’https://www.freepik.es/vectores/fondo‘>Vector de Fondo creado por pikisuperstar – www.freepik.es</a>
<a href=’https://www.freepik.es/vectores/comida‘>Vector de Comida creado por upklyak – www.freepik.es</a>
<a href=’https://www.freepik.es/vectores/negocios‘>Vector de Negocios creado por pch.vector – www.freepik.es</a>
<a href=’https://www.freepik.es/vectores/escuela‘>Vector de Escuela creado por pch.vector – www.freepik.es</a>
<a href=’https://www.freepik.es/vectores/personas‘>Vector de Personas creado por freepik – www.freepik.es</a>
 

Resumen del proyecto CAHOS19 presentado en el DATATHOn 2021 de ciencia de datos

Resumen del proyecto CAHOS19 presentado en el DATATHOn 2021 de ciencia de datos.
Mas detalles del proyecto en: https://cahos19.blogs.upv.es/category/videos/
Marin-Garcia, J. A., Ruiz, A., Maheut, J., Garcia-Sabater, J. P. (2021). A data generator for COVID-19 patients’ care requirements inside hospitals: data paper. WPOM-Working Papers on Operations Management, 12 (in press). https://doi.org/10.4995/wpom.15332

SDGs’ list (Sustainable Development Goals)

For each submission to WPOM, please add the codes of Sustainable Development Goals supported by the paper. When several SDGs were supported, use a semicolon «;» as separator

For example SDG03 Good Health and Well-Being; SDG09 Industry, Innovation, and Infrastructure

17 Goals to Transform Our World

The Sustainable Development Goals are a call for action by all countries – poor, rich and middle-income – to promote prosperity while protecting the planet. They recognize that ending poverty must go hand-in-hand with strategies that build economic growth and address a range of social needs including education, health, social protection, and job opportunities while tackling climate change and environmental protection.

SDG01 No Poverty. Economic growth must be inclusive to provide sustainable jobs and promote equality.Read more about Goal 1

SDG02 Zero Hunger. The food and agriculture sector offers key solutions for development, and is central for hunger and poverty eradication. Read more about Goal 2

SDG03 Good Health and Well-Being. Ensuring healthy lives and promoting the well-being for all at all ages is essential to sustainable development.Read more about Goal 3

SDG04 Quality Education. Obtaining a quality education is the foundation to improving people’s lives and sustainable development.Read more about Goal 4

SDG05 Gender Equality. Gender equality is not only a fundamental human right, but a necessary foundation for a peaceful, prosperous and sustainable world.Read more about Goal 5

SDG06 Clean Water and Sanitation. Clean, accessible water for all is an essential part of the world we want to live in. Read more about Goal 6

SDG07 Affordable and Clean Energy. Energy is central to nearly every major challenge and opportunity. Read more about Goal 7

SDG08 Decent Work and Economic Growth. Sustainable economic growth will require societies to create the conditions that allow people to have quality jobs.Read more about Goal 8

SDG09 Industry, Innovation, and Infrastructure. Investments in infrastructure are crucial to achieving sustainable development. Read more about Goal 9

SDG010 Reduced Inequalities. To reduce inequalities, policies should be universal in principle, paying attention to the needs of disadvantaged and marginalized populations. Read more about Goal 10

SDG11 Sustainable Cities and Communities. There needs to be a future in which cities provide opportunities for all, with access to basic services, energy, housing, transportation and more. Read more about Goal 11

SDG12 Responsible Consumption and Production. Read more about Goal 12

SDG13 Climate Action. Climate change is a global challenge that affects everyone, everywhere. Read more about Goal 13

SDG14 Life Below Water. Careful management of this essential global resource is a key feature of a sustainable future. Read more about Goal 14

SDG15 Life on Land. Sustainably manage forests, combat desertification, halt and reverse land degradation, halt biodiversity loss. Read more about Goal 15

SDG16: Peace, Justice and Strong Institutions. Access to justice for all, and building effective, accountable institutions at all levels. Read more about Goal 16

SDG17 Partnerships. Revitalize the global partnership for sustainable development.Read more about Goal 17

 

¿Qué puedo compartir en un repositorio publico de mis investigaciones publicadas?

Sin duda, los servicios de biblioteca de tu universidad te pueden asesorar con todo detalle sobre este punto.

Pero si quieres una respuesta rápida, aprovecho que me han estado preguntando algunas personas conocidas y pego en público lo que les he contado en privado.

Como cada revista elige un sistema mas o menos restrictivo, y no siempre es fácil localizarlo en sus páginas web, creo que la opción más rápida de consulta es ir a que puedes consultar en https://v2.sherpa.ac.uk/romeo/

Desde el punto de vista práctico hay tres tipos de documentos (realmente hay más pero para simplificar, lo dejo en tres) sobre los que pueden ejercer copyright -independientemente de que los hayas maquetado tu 😉 –
a) Published version (versión editorial): el documento tal como se publica, maquetado con el formato, logos etc de la revista. por extensión también incluye galeradas previas o lo que se publica definitivo
b) Accepted version: un documento (tanto si el aspecto formal es una plantilla de la revista como si no hay logos ni maquetación tipo lo que saldrá publicado) que ha pasado el proceso de revisión y hay sido «mejorado» gracias al «trabajo» de la revista.
c) Submitted version: lo que tu mandas a la revista en el primer envío y que es de los autores-as, sin ninguna aportación de nadie más (ojo, quitando la plantilla con logos y estilo de la revista. Es decir, copiado el texto a un fichero que no te haya dado la revista).

La «submitted version» es siempre distribuible, ninguna revista puede exigirte nada de esto (no tienen el Copyright cedido de eso jamás). Ojo, que muchas veces hacemos de maquetadores y lo que mandamos en primera instancia es sobre una plantilla de la revista… si es así pasa a ser un híbrido que se regiría por los permisos de «accepted version».

La mayoría de revisas te dejan difundir en open el «accepted version» -sin logos ni nada de eso-  pero tras un periodo de embargo (que depende de cada revista).
Resumiendo, para cumplir con financiación de EU, si no quieres calentarte la cabeza  comparte b) (pero sin logos ni maquetacion parecida a la revista). Siempre que sea en un repositorio no comercial no creo que nadie vaya a comprobar si era la de primer envio o la que modificaste tras revisiones ni te vayan a penaliza por eso. Si quieres ser muy purista, comparte c) (si eres capaz de localizar ese fichero tras las 4 o 5 versiones modificadas que habrás tenido que hacer..). En el fondo yo opto siempre por b) porque me parece un absurdo total todo este proceso: si lo has mandado a una revista te lo han rechazado tras revisión y has vuelto a escribirlo y lo has mandado a otra ¿que deberías poder subir en abierto? ¿la primera primerísima versión, que seguramente era inadecuada? ¿la que has mandado a la segunda revista gracias al trabajo de la primera -que no se como una rosca de atribuciones-? En fin, que yo solo acepto que la revista está reteniendo derechos por su imagen de marca (published version). Todo lo demás es trabajo científico hecho por personas que dedican su tiempo para hacer crecer la ciencia. Punto.

Zapatero a tus zapatos. En contra del escrache a revistas académicas

"Un motín es una cosa muy fea" (el Jovencito Frankenstein) y el monstruo no era tan malo, eran más bien los miedos de los aldeanos.

Me ha costado elegir el título de la entrada y espero que nadie se sienta molesto. Pero creo que es lo que mejor representa la situación. Creo, también, que aporta el camino para solucionarlo: si crees que una revista académica, de las que están listadas en Web Of Science (WOS) o Scopus, está incurriendo en malas prácticas editoriales/científicas. En lugar de participar en un linchamiento, usa los procedimientos establecidos para denunciarlo:

  • En WOS: manda un correo indicando el problema, la revista y su ISSN a Product Support <wosg.support@clarivate.com>
  • En Scopus: contacta con title re-evaluation team re-evaluation@scopus.com

El origen de esta entrada son todos los corrillos de sospechas vertidas sobre una revista académica y, por extensión, a la editorial que la publica. Son comentarios del tipo «conozco a alguien en ANECA que me ha dicho que la revista **** es predatory (a pesar de estar en Q* en JCR). Te aconsejo que no publiques en esa revista». Casi siempre, ese comentario suele ir acompañado de la respuesta de otra persona que dice algo parecido a: «si, si, yo conozco a alguien que pago por publicar en esa revista» y se va liando la cosa.

En el fondo, cuando observo todo esto desde fuera, me da la sensación de que es la misma forma como se difunden los bulos o «fake-news» y lo que me preocupa es que haya gente académica enganchada en esta actividad.

Voy a empezar con una frase que igual no me gana amistades y quizás consiga que alguien se moleste y no siga leyendo la entrada (una lástima porque luego explico detalles que pueden ser interesantes):

Que lleves años investigando y publicando no te convierte en experto en evaluación de la calidad editorial de las revistas (yo no lo soy tampoco, por eso creo que hay que ser muy prudentes antes de poner una etiqueta negativa a una revista)

Por suerte, o por desgracia, existen expertos. De hecho, los sistemas de evaluación de la calidad de la investigación en España han abdicado de esa tarea y la han delegado hace años en esos expertos. Exacto. Lo has adivinado. Me refiero a Clarivate-WOS con su JCR y a Scopus, con su «cite-score» o su primo SJR (hay algunos más pero en España no se consideran apenas).

Estas dos plataformas se han convertido en el referente de lo que es una revista académica «con calidad editorial». Normalmente se confunde la calidad editorial de la revista con la calidad científica de los artículos que publica. Se confunde porque tienen cierta relación… Pero son dos cosas distintas. Y casi siempre se confunde calidad científica de un artículo con número de citas recibida (de nuevo, son cosas que pueden estar relacionadas, pero no son lo mismo).

Para WOS y para Scopus, la calidad académica de la revista está clara: se trata de cumplir una serie de criterios, que son los que sus expertos tienen en cuenta para indexar una revista en sus bases, o para expulsarte si dejas de cumplirlos. Puedes consultar la lista de criterios en las tablas 1 y 2 de https://polipapers.upv.es/index.php/WPOM/article/view/8989/9910 o aquí. https://www.elsevier.com/solutions/scopus/how-scopus-works/content/content-policy-and-selection


Por lo tanto, primera conclusión:

Si una revista está en uno de esos listados es una garantía de que es una revista «decente» (estar en dos, significa que, además tienes dinero o tiempo para toda la burocracia que exige estar en esos listados)

Obviamente las revistas pueden evolucionar, para bien o para mal. Las personas que actúan como editoras de la revista pueden tomar decisiones que no coinciden con las normas publicadas de la revista (las que determinan su calidad editorial). A veces son errores esporádicos y aleatorios. Eso no representa ningún problema. Solo cuando estas desviaciones son sistemáticas, estamos ante un caso de posible «fraude académico» y eso se puede (y se debe) denunciar para que los servicios de indexación (Scopus y WOS) pueda actuar y sacarla del listado si fuese necesario.

Si en lugar de denunciarlo a WOS o a Scopus, nos dedicamos a criticar en corrillos y hacer de «la vieja del visillo», creo que no hacemos ningún favor a la ciencia. La denuncia la debe iniciar la persona que haya sufrido la situación o las que tengan pruebas fehacientes de la mala praxis.

Segunda conclusión:


Por muy diligentes que sean WOS y Scopus, limpiar sus bases les cuesta cierto tiempo (quizás un par de años desde que una revista inicia un camino equivocado hasta que es expulsada). Entre otras cosas, porque primero deberían advertir y, solo si no corrigen la trayectoria, expulsar a la revista.

Pero los pobres mortales que nos dedicamos a investigar y difundir los resultados de nuestra investigación, o las comisiones de evaluación (que están formadas por un grupo de esos mismos mortales), no tenemos las herramientas para estar al tanto de todo esto y solo podemos fiarnos de lo que hacen los expertos (WOS y Scopus). Porque los hemos considerado como tales. Nadie nos obligaba, pero decidimos otorgar todo el poder a la posición de cuartiles de las revistas (porque es cómodo y barato y sencillo y cuantificable y objetivo). Por lo tanto, ahora hemos de ser coherentes y transparentes.

Tercera conclusión:

No se pueden aplicar penalizaciones con efectos retroactivos. Si dices que un Q1 es una revista buena, no puedes luego decir, que bueno, depende de qué Q1, porque ahora voy a ser yo el experto, unas veces el experto es WOS/Scopus y otras yo… según me convenga y con efectos retroactivos. Eso, a mi, no parece muy transparente.

Pero ¿qué es una mala praxis editorial? pues la verdad es que no hay muchas (http://redc.revistas.csic.es/index.php/redc/article/view/868/1172). normalmente los problemas de mala praxis son más problemas de los propios autores-as que de los editores-as de las revisas.

Por eso voy a centrarme en cosas que suelen criticarse pero NO son malas prácticas. Aunque nos extrañen, sean «novedosas», o no nos gusten, o no las compartamos, o creamos que los fondos públicos de investigación no deberían ir a parar a los bolsillos de editoriales que se están haciendo un gran negocio con la publicación científica (como Elsevier, SAGE, MDPI, Frontiers y otras).

  • Publicar muchos artículos al año: eso no es ni bueno ni malo. Debes tener recursos para gestionar el volumen, solo eso. Si cuentas con suficientes personas como para hacer un filtrado y una buena revisión de todo ese volumen, no hay nada que objetar (quizás envidiar cómo lo consigues). Hay revistas con muy buena imagen científica que publican miles de artículos al año (y nadie se cuestiona su calidad). En el fondo si publican mucho y están altas en los indices de impacto es que hay mucha (muchísima) gente que cita sus trabajos, de modo que: a) tan malos no son los artículos que publica; b) el número de citas no sirve para valorar la calidad de un trabajo de investigación; c) están haciendo trampas para inflar las citas (solo en este caso es denunciable y quien tenga una evidencia, que lo denuncie cuanto antes).
  • Hacer muchos «Special Issues»: en principio es lo mismo que el punto anterior, con un pequeño matiz. Los números regulares los filtras con el equipo editorial de la revista. Para los números especiales fichas a gente que va a colaborar de manera puntual. Si el «fichaje» se hace con criterio y se elije a personas que se van a implicar y tienen buen conocimiento del tema del número especial, no debería constituir ningún problema (más bien todo lo contrario). De modo que si la revista puede hacer una buena selección de editores-as y puede gestionar ese volumen extra de trabajo, estamos con en el primer punto. Nada que objetar.
  • Cobrar APC (Article Processing Charges) a los autores: mantener una revista tiene un coste. O lo paga una asociación o universidad, o lo paga el lector, o lo paga el autor. No le veo muchas más opciones. ¿Que algunas tasas de APC están o sobrepasan el límite de la usura? Si, estoy de acuerdo. Pero eso no significa que no tengan calidad (editorial o científica de sus trabajos), solo significa que alguien quiere aprovechar la situación para hacer dinero con un modelo de negocio legal (nos guste o no).
  • Cerrar el proceso editorial rápido: esto no es ningún problema. Al revés, es lo que todos desearíamos: que el proceso editorial sea lo más rápido posible sin perder su rigor. Si haces un análisis de tiempos, procesar un artículo probablemente no requiere de más de 15-20 horas de tiempo neto. Repartidas entre 4-6 personas diferentes que, en algunas etapas, pueden trabajar en paralelo. El problema es cuánto tardas en liberar el tiempo necesario para ocuparte del articulo. Tener el articulo 3 semanas en tu bandeja de entrada no le aporta ningún valor al proceso de revisión ;-).
  • Hacer un marketing «agresivo» de la revista (mandar correos a profesionales que publican sobre los temas de la revista): que nos llenen la bandeja de entrada con correos invitándonos a mandar artículos o leer sus publicaciones puede no gustarnos… Pero es lo que hay. Yo, al menos, prefiero que el SPAM de mi correo sea información sobre números especiales de temas sobre los que publico o sobre la tabla de contenidos de una revista que suelo leer, que el de la señora nigeriana que me informa de que acaban de nombrarme heredero de un millón de dólares.
  • Que se les cuelen algunos artículos flojos: si publicas 3.000 artículos al año, es normal que algunos de ellos sean flojitos o incluso que alguno tenga problemas serios (si publicas 10 al año es raro que te pase, pero cuando subes exponencialmente, aunque tengan un 99% de acierto en el filtro, si los buscas, vas a poder encontrar artículos con problemas). Lo importante no es que encuentres uno, sino el % que representan los problemáticos sobre todo lo que gestiona la revista.
  • Que el editor-a jefe-a tenga una opinión diferente de uno-a de los revisores-as: salvo que las normas de la revista digan que el editor hará caso a la decisión del revisor más negativo, no es una mala praxis que la persona que ocupa el puesto de editora jefa de la revista haga valer su criterio cuando sea necesario.

Para terminar, las críticas a estas revisas siempre se basan en una experiencia personal: «yo vi (o me contaron) una cosa fea una vez, por lo tanto, no solo la revista, sino también la editorial y todas las revisas que publican son una mierda». Lo voy a contrarrestar con el mismo argumento: yo he visto, no solo una, sino dos cosas muy positivas en una revista de la editorial MDPI, por lo tanto la revista, la editorial y todas sus revisas son fantástica. Aquí os relato mi experiencia:

Como autor en un numero especial. La editora jefa era una académica de rigor indiscutible. También he visto algunos nombres conocidos y respetados al frente de otros números especiales. Recibo 4 revisiones muy completas y muy exigentes. No nos pusieron fácil levantar el «major revision». Pero lo conseguimos tras muchas horas de trabajo. Los comentarios eran realmente de expertos que se habían tomado muy en serio la revisión. Todo el proceso fue muy rápido… de hecho tuvimos que pedir ampliación para envío de la respuesta. Es cierto que la revista hace negocio cobrando una cantidad alta de euros en caso de aceptar la publicación, pero es tan alta como otras muchas revistas de SAGE o de Elsevier y el servicio al autor es mucho mejor.

Como editor de un numero especial. Las decisiones editoriales son cosa mía (he decidido rechazar más del 50% de los envíos y no me han puesto ninguna pega). Además, la ayuda a selección de revisores es muy buena, son investigadores afines a los temas y tras aceptar la revisión suelen hacer revisiones muy exhaustivas y en plazo. A veces intentan asumir el rol de editor más que de revisor (cosa que pasa muchas veces con otras revistas TOP). Y un detalle que no es banal. Soy editor del numero especial y el articulo que mando ha sido revisado por 4 revisores y ha sido gestionado por otro editor de la revista (no se quién es el editor, ni quien me hace las revisiones. Todo el proceso es ciego para mi). En estos momentos lo tengo en segunda revisión porque me han metido bastante caña. Esto no pasa con los «special issues» de ninguna de las otras revistas Q1 que conozco. Allí las editoriales pasan sin filtro… pues aquí las filtran como si fuese un artículo más. De modo que son mucho más exigentes que otras.

 

PD: os enlazo una de las reflexiones más lúcidas y mejor documentadas que he econtrado sobre el tema https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/

 

Call for papers: High Performance Work Practices and Kaizen: How Sustainable are They?

Ya está abierto el Call for Papers para el número especial del que soy editor jefe: «High Performance Work Practices and Kaizen: How Sustainable are They?» en la revista International Journal of Environmental Research and Public Health (ISSN 1660-4601). La revista es Q1 en JCR en la categoría PUBLIC, ENVIRONMENTAL & OCCUPATIONAL HEALTH – SSCI  y Q1 en citescore de scopus, en la categoria Public Health, Environmental and Occupational Health.

Un pocas palabras, el tema del número especial es:

This Special Issue addresses the sustainability of high-performance work practices or kaizen, from the point of view of their long-term effects on organizations, the environment and workers’ well-being. In this way, we hope to present a set of contributions that will enable development (people, planet, and profit) to be addressed from different perspectives.

Pero convine que miréis la información detallada en: https://www.mdpi.com/journal/ijerph/special_issues/Work_Kaizen     

En la pagina web no aparecen la lista de referencias citadas, pero puedes consultarla aqui:

  • Alfalla-Luque, R., Marin-Garcia, J. A., & Medina-López, C. (2015). An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance. International Journal of Production Economics, 162(April), 242–257. doi:http://dx.doi.org/10.1016/j.ijpe.2014.07.004
  • Andersén, J., & Andersén, A. (2019). Are high-performance work systems (hpws) appreciated by everyone? The role of management position and gender on the relationship between hpws and affective commitment. Employee Relations, 41(5), 1046-1064. doi:10.1108/ER-03-2018-0080
  • Caniëls, M. C. J., & Veld, M. (2019). Employee ambidexterity, high performance work systems and innovative work behaviour: How much balance do we need? International Journal of Human Resource Management, 30(4), 565-585. doi:10.1080/09585192.2016.1216881
  • Chang, P. C., Wu, T., & Liu, C. L. (2018). Do high-performance work systems really satisfy employees? Evidence from china. Sustainability (Switzerland), 10(10). doi:10.3390/su10103360
  • Ciravegna Martins da Fonseca, L. M. (2015). Iso 14001:2015: An improved tool for sustainability. Journal of Industrial Engineering and Management, 8(1), 37-50. Doi: 10.3926/jiem.1298
  • Daily B. F., & Huang S. (2001). Achieving sustainability through attention to human resource factors in environmental management. International Journal of Operations and Production Management, 21(12), 1539-1552. Doi: 10.1108/01443570110410892
  • Dania, W., Xing, K., & Amer, Y. (2018). Collaboration behavioural factors for sustainable agri-food supply chains: A systematic review. Journal of Cleaner Production, 186, 851-864. Doi: 10.1016/j.jclepro.2018.03.148
  • Fagnani, E., & Guimarães, J. (2017). Waste management plan for higher education institutions in developing countries: The continuous improvement cycle model. Journal of Cleaner Production, 147, 108-118. Doi: 10.1016/j.jclepro.2017.01.080
  • Fresner, J. (1998). Starting continuous improvement with a cleaner production assessment in an Austrian textile mill. Journal of Cleaner Production, 6(2), 85-91.
  • Gollan, P. J., Kalfa, S., Agarwal, R., Green, R., & Randhawa, K. (2014). Lean manufacturing as a high-performance work system: The case of cochlear. International Journal of Production Research, 52(21), 6434-6447. doi:10.1080/00207543.2014.940430
  • Govindarajulu, N., & Daily, B. F. (2004). Motivating employees for environmental improvement. Industrial Management and Data Systems, 104(4), 364-72.
  • Han, J., Jian-Min, S., & Wang, H. L. (2019). Do high performance work systems generate negative effects? How and when? Human Resource Management Review. doi:10.1016/j.hrmr.2019.100699
  • Jabbour, Ch. J., Santos F., & Nagano, M. (2008). Environmental management system and human resource practices: is there a link between them in four Brazilian companies? Journal of Cleaner Production, 16(17), 1922-1925. Doi: 10.1016/j.jclepro.2008.02.004
  • Karadas, G., & Karatepe, O. M. (2019). Unraveling the black box: The linkage between high-performance work systems and employee outcomes. Employee Relations, 41(1), 67-83. doi:10.1108/ER-04-2017-0084
  • Luu, T. (2019). Promoting logistics performance in vietnam-based manufacturing firms: The role of service-oriented high-performance work systems and mediation mechanisms. International Journal of Physical Distribution and Logistics Management, 49(1), 52-74. doi:10.1108/IJPDLM-07-2017-0238
  • Miao, R., & Cao, Y. (2019). High-performance work system, work well-being, and employee creativity: Cross-level moderating role of transformational leadership. International Journal of Environmental Research and Public Health, 16(9). doi:10.3390/ijerph16091640
  • Renwick, D.W., Redman, T., & Maguire, S. (2013). Green human resource management: A review and research agenda. International Journal of Management Reviews, 15(1), 1-14.
  • Sanchez-Ruiz, L., Marin-Garcia, J. A., & Blanco, B. (2018). Protocol: A meta-review on continuous improvement to know the state of this research field. WPOM-Working Papers on Operations Management, 9(2). doi:10.4995/wpom.v9i2.10752
  • Siddique, M., Procter, S., & Gittell, J. H. (2019). The role of relational coordination in the relationship between high-performance work systems (hpws) and organizational performance. Journal of Organizational Effectiveness, 6(4), 246-266. doi:10.1108/JOEPP-04-2018-0029
  • Singh, S., Ramakrishna, S., & Gupta, M. (2017). Towards zero waste manufacturing: A multidisciplinary review. Journal of Cleaner Production, 168, 1230-1243. Doi: 10.1016/j.jclepro.2017.09.108
  • Tariq, S., Ali Jan, F., & Ahmad, M. S. (2016). Green employee empowerment: A systematic literature review on state-of-art in green human resource management. Quality & Quantity, 50, 237–269. Doi: 10.1007/s11135-014-0146-0
  • Vieira L., & Amaral, F. (2016). Barriers and strategies applying cleaner production: A systematic review. Journal of Cleaner Production, 113, 5-16. Doi: 10.1016/j.jclepro.2015.11.034
  • Wang, Z., Xing, L., & Zhang, Y. (2019). Do high-performance work systems harm employees’ health? An investigation of service-oriented hpws in the chinese healthcare sector. International Journal of Human Resource Management. doi:10.1080/09585192.2019.1579254
  • Way, S. (2002). High performance work systems and intermediate indicators of firm performance within the us small business sector. Journal of Management, 28, 765-785.
  • World Commission on Environment and Development. (1987). Our common future (brundtland report): United Nations
  • Zhou, Y., Fan, X., & Son, J. (2019). How and when matter: Exploring the interaction effects of high-performance work systems, employee participation, and human capital on organizational innovation. Human resource management, 58(3), 253-268. doi:10.1002/hrm.21950

https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02368/full

Just published Bonavia, T., & Marin-Garcia, J. A. (2019). Spanish validation of the leader empowering behavior questionnaire (lebq). Frontiers in Psychology, 10(2368). doi:10.3389/fpsyg.2019.02368
#HRM #ContinuousImprovement #TalentManagement

The concept of empowering leadership (EL) has attracted widespread academic and practical interest and different questionnaires have been developed to measure it. However, there are no instruments to measure EL in the Spanish language. This article presents the translation, adaptation, and validation of a scale to measure this construct. In addition, it analyzes the relationship between managers’ EL and employees’ job satisfaction. In turn, the study analyzes whether employees who participate in a greater number of continuous improvement (CI) programs have supervisors who favor more empowering behaviors. A total of 739 participants with various occupations from different companies that have implemented CI processes filled out the Spanish version of the Leader Empowering Behavior Questionnaire (LEBQ-sp). Two different subsamples were used to test the relationships between the LEBQ and job satisfaction and CI, by means of Pearson’s correlation coefficient and analysis of variance, making it possible to provide evidence about the validity of the Spanish LEBQ. The confirmatory factor analysis supported the original structure of the six-factor model. The factors show a high level of internal consistency, as well as sufficient convergent and discriminant validity. Moreover, the results show that the more companies invest in formal CI programs, the more important it is for their leaders to adapt their behavior by displaying more EL. The LEBQ-sp is a valid and reliable instrument for use in research and a useful tool for applied purposes in the context of Spanish-speaking countries.