Zapatero a tus zapatos. En contra del escrache a revistas académicas

"Un motín es una cosa muy fea" (el Jovencito Frankenstein) y el monstruo no era tan malo, eran más bien los miedos de los aldeanos.

Me ha costado elegir el título de la entrada y espero que nadie se sienta molesto. Pero creo que es lo que mejor representa la situación. Creo, también, que aporta el camino para solucionarlo: si crees que una revista académica, de las que están listadas en Web Of Science (WOS) o Scopus, está incurriendo en malas prácticas editoriales/científicas. En lugar de participar en un linchamiento, usa los procedimientos establecidos para denunciarlo:

  • En WOS: manda un correo indicando el problema, la revista y su ISSN a Product Support <wosg.support@clarivate.com>
  • En Scopus: contacta con title re-evaluation team re-evaluation@scopus.com

El origen de esta entrada son todos los corrillos de sospechas vertidas sobre una revista académica y, por extensión, a la editorial que la publica. Son comentarios del tipo «conozco a alguien en ANECA que me ha dicho que la revista **** es predatory (a pesar de estar en Q* en JCR). Te aconsejo que no publiques en esa revista». Casi siempre, ese comentario suele ir acompañado de la respuesta de otra persona que dice algo parecido a: «si, si, yo conozco a alguien que pago por publicar en esa revista» y se va liando la cosa.

En el fondo, cuando observo todo esto desde fuera, me da la sensación de que es la misma forma como se difunden los bulos o «fake-news» y lo que me preocupa es que haya gente académica enganchada en esta actividad.

Voy a empezar con una frase que igual no me gana amistades y quizás consiga que alguien se moleste y no siga leyendo la entrada (una lástima porque luego explico detalles que pueden ser interesantes):

Que lleves años investigando y publicando no te convierte en experto en evaluación de la calidad editorial de las revistas (yo no lo soy tampoco, por eso creo que hay que ser muy prudentes antes de poner una etiqueta negativa a una revista)

Por suerte, o por desgracia, existen expertos. De hecho, los sistemas de evaluación de la calidad de la investigación en España han abdicado de esa tarea y la han delegado hace años en esos expertos. Exacto. Lo has adivinado. Me refiero a Clarivate-WOS con su JCR y a Scopus, con su «cite-score» o su primo SJR (hay algunos más pero en España no se consideran apenas).

Estas dos plataformas se han convertido en el referente de lo que es una revista académica «con calidad editorial». Normalmente se confunde la calidad editorial de la revista con la calidad científica de los artículos que publica. Se confunde porque tienen cierta relación… Pero son dos cosas distintas. Y casi siempre se confunde calidad científica de un artículo con número de citas recibida (de nuevo, son cosas que pueden estar relacionadas, pero no son lo mismo).

Para WOS y para Scopus, la calidad académica de la revista está clara: se trata de cumplir una serie de criterios, que son los que sus expertos tienen en cuenta para indexar una revista en sus bases, o para expulsarte si dejas de cumplirlos. Puedes consultar la lista de criterios en las tablas 1 y 2 de https://polipapers.upv.es/index.php/WPOM/article/view/8989/9910 o aquí. https://www.elsevier.com/solutions/scopus/how-scopus-works/content/content-policy-and-selection


Por lo tanto, primera conclusión:

Si una revista está en uno de esos listados es una garantía de que es una revista «decente» (estar en dos, significa que, además tienes dinero o tiempo para toda la burocracia que exige estar en esos listados)

Obviamente las revistas pueden evolucionar, para bien o para mal. Las personas que actúan como editoras de la revista pueden tomar decisiones que no coinciden con las normas publicadas de la revista (las que determinan su calidad editorial). A veces son errores esporádicos y aleatorios. Eso no representa ningún problema. Solo cuando estas desviaciones son sistemáticas, estamos ante un caso de posible «fraude académico» y eso se puede (y se debe) denunciar para que los servicios de indexación (Scopus y WOS) pueda actuar y sacarla del listado si fuese necesario.

Si en lugar de denunciarlo a WOS o a Scopus, nos dedicamos a criticar en corrillos y hacer de «la vieja del visillo», creo que no hacemos ningún favor a la ciencia. La denuncia la debe iniciar la persona que haya sufrido la situación o las que tengan pruebas fehacientes de la mala praxis.

Segunda conclusión:


Por muy diligentes que sean WOS y Scopus, limpiar sus bases les cuesta cierto tiempo (quizás un par de años desde que una revista inicia un camino equivocado hasta que es expulsada). Entre otras cosas, porque primero deberían advertir y, solo si no corrigen la trayectoria, expulsar a la revista.

Pero los pobres mortales que nos dedicamos a investigar y difundir los resultados de nuestra investigación, o las comisiones de evaluación (que están formadas por un grupo de esos mismos mortales), no tenemos las herramientas para estar al tanto de todo esto y solo podemos fiarnos de lo que hacen los expertos (WOS y Scopus). Porque los hemos considerado como tales. Nadie nos obligaba, pero decidimos otorgar todo el poder a la posición de cuartiles de las revistas (porque es cómodo y barato y sencillo y cuantificable y objetivo). Por lo tanto, ahora hemos de ser coherentes y transparentes.

Tercera conclusión:

No se pueden aplicar penalizaciones con efectos retroactivos. Si dices que un Q1 es una revista buena, no puedes luego decir, que bueno, depende de qué Q1, porque ahora voy a ser yo el experto, unas veces el experto es WOS/Scopus y otras yo… según me convenga y con efectos retroactivos. Eso, a mi, no parece muy transparente.

Pero ¿qué es una mala praxis editorial? pues la verdad es que no hay muchas (http://redc.revistas.csic.es/index.php/redc/article/view/868/1172). normalmente los problemas de mala praxis son más problemas de los propios autores-as que de los editores-as de las revisas.

Por eso voy a centrarme en cosas que suelen criticarse pero NO son malas prácticas. Aunque nos extrañen, sean «novedosas», o no nos gusten, o no las compartamos, o creamos que los fondos públicos de investigación no deberían ir a parar a los bolsillos de editoriales que se están haciendo un gran negocio con la publicación científica (como Elsevier, SAGE, MDPI, Frontiers y otras).

  • Publicar muchos artículos al año: eso no es ni bueno ni malo. Debes tener recursos para gestionar el volumen, solo eso. Si cuentas con suficientes personas como para hacer un filtrado y una buena revisión de todo ese volumen, no hay nada que objetar (quizás envidiar cómo lo consigues). Hay revistas con muy buena imagen científica que publican miles de artículos al año (y nadie se cuestiona su calidad). En el fondo si publican mucho y están altas en los indices de impacto es que hay mucha (muchísima) gente que cita sus trabajos, de modo que: a) tan malos no son los artículos que publica; b) el número de citas no sirve para valorar la calidad de un trabajo de investigación; c) están haciendo trampas para inflar las citas (solo en este caso es denunciable y quien tenga una evidencia, que lo denuncie cuanto antes).
  • Hacer muchos «Special Issues»: en principio es lo mismo que el punto anterior, con un pequeño matiz. Los números regulares los filtras con el equipo editorial de la revista. Para los números especiales fichas a gente que va a colaborar de manera puntual. Si el «fichaje» se hace con criterio y se elije a personas que se van a implicar y tienen buen conocimiento del tema del número especial, no debería constituir ningún problema (más bien todo lo contrario). De modo que si la revista puede hacer una buena selección de editores-as y puede gestionar ese volumen extra de trabajo, estamos con en el primer punto. Nada que objetar.
  • Cobrar APC (Article Processing Charges) a los autores: mantener una revista tiene un coste. O lo paga una asociación o universidad, o lo paga el lector, o lo paga el autor. No le veo muchas más opciones. ¿Que algunas tasas de APC están o sobrepasan el límite de la usura? Si, estoy de acuerdo. Pero eso no significa que no tengan calidad (editorial o científica de sus trabajos), solo significa que alguien quiere aprovechar la situación para hacer dinero con un modelo de negocio legal (nos guste o no).
  • Cerrar el proceso editorial rápido: esto no es ningún problema. Al revés, es lo que todos desearíamos: que el proceso editorial sea lo más rápido posible sin perder su rigor. Si haces un análisis de tiempos, procesar un artículo probablemente no requiere de más de 15-20 horas de tiempo neto. Repartidas entre 4-6 personas diferentes que, en algunas etapas, pueden trabajar en paralelo. El problema es cuánto tardas en liberar el tiempo necesario para ocuparte del articulo. Tener el articulo 3 semanas en tu bandeja de entrada no le aporta ningún valor al proceso de revisión ;-).
  • Hacer un marketing «agresivo» de la revista (mandar correos a profesionales que publican sobre los temas de la revista): que nos llenen la bandeja de entrada con correos invitándonos a mandar artículos o leer sus publicaciones puede no gustarnos… Pero es lo que hay. Yo, al menos, prefiero que el SPAM de mi correo sea información sobre números especiales de temas sobre los que publico o sobre la tabla de contenidos de una revista que suelo leer, que el de la señora nigeriana que me informa de que acaban de nombrarme heredero de un millón de dólares.
  • Que se les cuelen algunos artículos flojos: si publicas 3.000 artículos al año, es normal que algunos de ellos sean flojitos o incluso que alguno tenga problemas serios (si publicas 10 al año es raro que te pase, pero cuando subes exponencialmente, aunque tengan un 99% de acierto en el filtro, si los buscas, vas a poder encontrar artículos con problemas). Lo importante no es que encuentres uno, sino el % que representan los problemáticos sobre todo lo que gestiona la revista.
  • Que el editor-a jefe-a tenga una opinión diferente de uno-a de los revisores-as: salvo que las normas de la revista digan que el editor hará caso a la decisión del revisor más negativo, no es una mala praxis que la persona que ocupa el puesto de editora jefa de la revista haga valer su criterio cuando sea necesario.

Para terminar, las críticas a estas revisas siempre se basan en una experiencia personal: «yo vi (o me contaron) una cosa fea una vez, por lo tanto, no solo la revista, sino también la editorial y todas las revisas que publican son una mierda». Lo voy a contrarrestar con el mismo argumento: yo he visto, no solo una, sino dos cosas muy positivas en una revista de la editorial MDPI, por lo tanto la revista, la editorial y todas sus revisas son fantástica. Aquí os relato mi experiencia:

Como autor en un numero especial. La editora jefa era una académica de rigor indiscutible. También he visto algunos nombres conocidos y respetados al frente de otros números especiales. Recibo 4 revisiones muy completas y muy exigentes. No nos pusieron fácil levantar el «major revision». Pero lo conseguimos tras muchas horas de trabajo. Los comentarios eran realmente de expertos que se habían tomado muy en serio la revisión. Todo el proceso fue muy rápido… de hecho tuvimos que pedir ampliación para envío de la respuesta. Es cierto que la revista hace negocio cobrando una cantidad alta de euros en caso de aceptar la publicación, pero es tan alta como otras muchas revistas de SAGE o de Elsevier y el servicio al autor es mucho mejor.

Como editor de un numero especial. Las decisiones editoriales son cosa mía (he decidido rechazar más del 50% de los envíos y no me han puesto ninguna pega). Además, la ayuda a selección de revisores es muy buena, son investigadores afines a los temas y tras aceptar la revisión suelen hacer revisiones muy exhaustivas y en plazo. A veces intentan asumir el rol de editor más que de revisor (cosa que pasa muchas veces con otras revistas TOP). Y un detalle que no es banal. Soy editor del numero especial y el articulo que mando ha sido revisado por 4 revisores y ha sido gestionado por otro editor de la revista (no se quién es el editor, ni quien me hace las revisiones. Todo el proceso es ciego para mi). En estos momentos lo tengo en segunda revisión porque me han metido bastante caña. Esto no pasa con los «special issues» de ninguna de las otras revistas Q1 que conozco. Allí las editoriales pasan sin filtro… pues aquí las filtran como si fuese un artículo más. De modo que son mucho más exigentes que otras.

 

PD: os enlazo una de las reflexiones más lúcidas y mejor documentadas que he econtrado sobre el tema https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/

 

El público objetivo de la divulgación científica debería ser más amplio de lo que habitualmente pensamos

Mientras leía este articulo pensaba que acaban de identificar al publico objetivo de los manipuladores, populistas y anti-ciencia. El reto es como se puede trabajar con esas poblaciones desde la  Práctica Basada en Evidencia (evidence-based) para contrarrestar las campañas que están recibiendo y seguirán recibiendo desde otras fuentes.
Howley, P., Waqas, M., Moro, M., Delaney, L., & Heron, T. (2020). It’s Not All about the Economy Stupid! Immigration and Subjective Well-Being in England. Work, Employment and Society, 34(5), 919–936. https://doi.org/10.1177/0950017019866643«
 
Un resumen de la evidencia:
«much of the research that has been done in the UK suggests that immigration has had little, if any, negative impact on the labour market outcomes of natives and this finding is mirrored in much of the research outside the UK (Card, 2005; Dustmann et al., 2013; Lemos and Portes, 2013).»
…..
«the available evidence suggests that migrants are typically younger and healthier, and in turn more likely to be at work (hence less likely to access social services) than the native UK population. In effect, it is likely that they not only pay their own way, but also partly subsidise the costs of public services for others (Dustmann et al., 2010). «
 
Los mensajes en las redes
«In public discourse, immigration is also often associated with increased burdens on taxpayers through rising health care costs and demand for social services. «
«The effect of this influx of new migrants on the UK economy has been the subject of intense political debate, and was one of the dominant issues in the recent UK referendum on EU membership.»
 
Y el efecto que producen (qué población es más vulnerable a los mensajes que a la evidencia)
 
«Considering the population as a whole (main effects), we find using both a fixed-effects (following the same individuals over time) and instrumental variable specification (quasi-natural experiment) that net inflows of foreign-born individuals into local areas are associated with negative (albeit relatively small) subjective well-being impacts for natives. These negative impacts are much more notable, however, for certain groups, such as relatively older individuals (60+), the unemployed, those with below-average household incomes and finally those without any formal educational qualifications.»
 
#evidencebased

Call for papers: High Performance Work Practices and Kaizen: How Sustainable are They?

Ya está abierto el Call for Papers para el número especial del que soy editor jefe: «High Performance Work Practices and Kaizen: How Sustainable are They?» en la revista International Journal of Environmental Research and Public Health (ISSN 1660-4601). La revista es Q1 en JCR en la categoría PUBLIC, ENVIRONMENTAL & OCCUPATIONAL HEALTH – SSCI  y Q1 en citescore de scopus, en la categoria Public Health, Environmental and Occupational Health.

Un pocas palabras, el tema del número especial es:

This Special Issue addresses the sustainability of high-performance work practices or kaizen, from the point of view of their long-term effects on organizations, the environment and workers’ well-being. In this way, we hope to present a set of contributions that will enable development (people, planet, and profit) to be addressed from different perspectives.

Pero convine que miréis la información detallada en: https://www.mdpi.com/journal/ijerph/special_issues/Work_Kaizen     

En la pagina web no aparecen la lista de referencias citadas, pero puedes consultarla aqui:

  • Alfalla-Luque, R., Marin-Garcia, J. A., & Medina-López, C. (2015). An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance. International Journal of Production Economics, 162(April), 242–257. doi:http://dx.doi.org/10.1016/j.ijpe.2014.07.004
  • Andersén, J., & Andersén, A. (2019). Are high-performance work systems (hpws) appreciated by everyone? The role of management position and gender on the relationship between hpws and affective commitment. Employee Relations, 41(5), 1046-1064. doi:10.1108/ER-03-2018-0080
  • Caniëls, M. C. J., & Veld, M. (2019). Employee ambidexterity, high performance work systems and innovative work behaviour: How much balance do we need? International Journal of Human Resource Management, 30(4), 565-585. doi:10.1080/09585192.2016.1216881
  • Chang, P. C., Wu, T., & Liu, C. L. (2018). Do high-performance work systems really satisfy employees? Evidence from china. Sustainability (Switzerland), 10(10). doi:10.3390/su10103360
  • Ciravegna Martins da Fonseca, L. M. (2015). Iso 14001:2015: An improved tool for sustainability. Journal of Industrial Engineering and Management, 8(1), 37-50. Doi: 10.3926/jiem.1298
  • Daily B. F., & Huang S. (2001). Achieving sustainability through attention to human resource factors in environmental management. International Journal of Operations and Production Management, 21(12), 1539-1552. Doi: 10.1108/01443570110410892
  • Dania, W., Xing, K., & Amer, Y. (2018). Collaboration behavioural factors for sustainable agri-food supply chains: A systematic review. Journal of Cleaner Production, 186, 851-864. Doi: 10.1016/j.jclepro.2018.03.148
  • Fagnani, E., & Guimarães, J. (2017). Waste management plan for higher education institutions in developing countries: The continuous improvement cycle model. Journal of Cleaner Production, 147, 108-118. Doi: 10.1016/j.jclepro.2017.01.080
  • Fresner, J. (1998). Starting continuous improvement with a cleaner production assessment in an Austrian textile mill. Journal of Cleaner Production, 6(2), 85-91.
  • Gollan, P. J., Kalfa, S., Agarwal, R., Green, R., & Randhawa, K. (2014). Lean manufacturing as a high-performance work system: The case of cochlear. International Journal of Production Research, 52(21), 6434-6447. doi:10.1080/00207543.2014.940430
  • Govindarajulu, N., & Daily, B. F. (2004). Motivating employees for environmental improvement. Industrial Management and Data Systems, 104(4), 364-72.
  • Han, J., Jian-Min, S., & Wang, H. L. (2019). Do high performance work systems generate negative effects? How and when? Human Resource Management Review. doi:10.1016/j.hrmr.2019.100699
  • Jabbour, Ch. J., Santos F., & Nagano, M. (2008). Environmental management system and human resource practices: is there a link between them in four Brazilian companies? Journal of Cleaner Production, 16(17), 1922-1925. Doi: 10.1016/j.jclepro.2008.02.004
  • Karadas, G., & Karatepe, O. M. (2019). Unraveling the black box: The linkage between high-performance work systems and employee outcomes. Employee Relations, 41(1), 67-83. doi:10.1108/ER-04-2017-0084
  • Luu, T. (2019). Promoting logistics performance in vietnam-based manufacturing firms: The role of service-oriented high-performance work systems and mediation mechanisms. International Journal of Physical Distribution and Logistics Management, 49(1), 52-74. doi:10.1108/IJPDLM-07-2017-0238
  • Miao, R., & Cao, Y. (2019). High-performance work system, work well-being, and employee creativity: Cross-level moderating role of transformational leadership. International Journal of Environmental Research and Public Health, 16(9). doi:10.3390/ijerph16091640
  • Renwick, D.W., Redman, T., & Maguire, S. (2013). Green human resource management: A review and research agenda. International Journal of Management Reviews, 15(1), 1-14.
  • Sanchez-Ruiz, L., Marin-Garcia, J. A., & Blanco, B. (2018). Protocol: A meta-review on continuous improvement to know the state of this research field. WPOM-Working Papers on Operations Management, 9(2). doi:10.4995/wpom.v9i2.10752
  • Siddique, M., Procter, S., & Gittell, J. H. (2019). The role of relational coordination in the relationship between high-performance work systems (hpws) and organizational performance. Journal of Organizational Effectiveness, 6(4), 246-266. doi:10.1108/JOEPP-04-2018-0029
  • Singh, S., Ramakrishna, S., & Gupta, M. (2017). Towards zero waste manufacturing: A multidisciplinary review. Journal of Cleaner Production, 168, 1230-1243. Doi: 10.1016/j.jclepro.2017.09.108
  • Tariq, S., Ali Jan, F., & Ahmad, M. S. (2016). Green employee empowerment: A systematic literature review on state-of-art in green human resource management. Quality & Quantity, 50, 237–269. Doi: 10.1007/s11135-014-0146-0
  • Vieira L., & Amaral, F. (2016). Barriers and strategies applying cleaner production: A systematic review. Journal of Cleaner Production, 113, 5-16. Doi: 10.1016/j.jclepro.2015.11.034
  • Wang, Z., Xing, L., & Zhang, Y. (2019). Do high-performance work systems harm employees’ health? An investigation of service-oriented hpws in the chinese healthcare sector. International Journal of Human Resource Management. doi:10.1080/09585192.2019.1579254
  • Way, S. (2002). High performance work systems and intermediate indicators of firm performance within the us small business sector. Journal of Management, 28, 765-785.
  • World Commission on Environment and Development. (1987). Our common future (brundtland report): United Nations
  • Zhou, Y., Fan, X., & Son, J. (2019). How and when matter: Exploring the interaction effects of high-performance work systems, employee participation, and human capital on organizational innovation. Human resource management, 58(3), 253-268. doi:10.1002/hrm.21950

https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02368/full

Just published Bonavia, T., & Marin-Garcia, J. A. (2019). Spanish validation of the leader empowering behavior questionnaire (lebq). Frontiers in Psychology, 10(2368). doi:10.3389/fpsyg.2019.02368
#HRM #ContinuousImprovement #TalentManagement

The concept of empowering leadership (EL) has attracted widespread academic and practical interest and different questionnaires have been developed to measure it. However, there are no instruments to measure EL in the Spanish language. This article presents the translation, adaptation, and validation of a scale to measure this construct. In addition, it analyzes the relationship between managers’ EL and employees’ job satisfaction. In turn, the study analyzes whether employees who participate in a greater number of continuous improvement (CI) programs have supervisors who favor more empowering behaviors. A total of 739 participants with various occupations from different companies that have implemented CI processes filled out the Spanish version of the Leader Empowering Behavior Questionnaire (LEBQ-sp). Two different subsamples were used to test the relationships between the LEBQ and job satisfaction and CI, by means of Pearson’s correlation coefficient and analysis of variance, making it possible to provide evidence about the validity of the Spanish LEBQ. The confirmatory factor analysis supported the original structure of the six-factor model. The factors show a high level of internal consistency, as well as sufficient convergent and discriminant validity. Moreover, the results show that the more companies invest in formal CI programs, the more important it is for their leaders to adapt their behavior by displaying more EL. The LEBQ-sp is a valid and reliable instrument for use in research and a useful tool for applied purposes in the context of Spanish-speaking countries.

¿Qué han investigado los académicos sobre comunicación interna entre 2013 y 2018?

(ver información ampliada en  https://www.linkedin.com/pulse/qu%25C3%25A9-han-investigado-los-acad%25C3%25A9micos-sobre-comunicaci%25C3%25B3n-marin-garcia)

Estrategia de búsqueda:
"internal communication" en titulo, resumen o palabras clave
de revistas  indexadas en SCOPUS
Publicado entre 2013 y 2018
en revistas catalogadas en categoria de empresa o economía
255 resultados
Tras filtro manual, 55 seleccionadas

Tras leer los resúmenes, parece que pocas hablan de herramientas concretas. He hecho un mapa conceptual de los contenidos aparentes de los 55 artículos (no los he leído aún, de modo que quizás mi mapa no represente adecuadamente los contenidos).

Respecto a herramientas, la investigación actual se centra en «social media» y la vinculan como herramienta de marketing interno (como una analogía a las capacidades de social media como herramienta de marketing externo). También se investiga sobre los resultados de la comunicación interna, pero parece que suelen abordarla como un todo global y no analizar el efecto concreto de una herramienta específica. Un tercer bloque de investigación se centra en qué herramientas serían más eficientes en contextos de crisis (o cambio o inestabilidad), y qué función puede cumplir en ese contexto. Sin duda esto se debe al pasado reciente de la crisis, pero quizás siga siendo un tema interesante en algunos sectores, donde la crisis dejó un entorno marcado por la incertidumbre o la inestabilidad.

#EvidenceBased #HRM

Análisis preliminar de las estructuras organizativas que facilitan la mejora continua

 

A través de nuestra investigación previa (ver referencias al final) hemos identificado 4 estructuras habituales en las empresas para fomentar la mejora continua:

  • Sistemas de sugerencias individuales (SB Suggestion Box)
  • Grupos permanentes de sugerencias (PST Permanent Suggestion Teams)
  • Grupos de mejora de corta duración (Ad-hoc temporary teams like kaizen events)
  • Grupos semi-autónomos (SDWT Self Directed Work Teams)

Hemos recogido datos de 856 operarios-as de empresas españolas o sud-americanas en el periodo 2009-2014. En el 78% de los casos existía alguna de las cuatro estructuras, pero solo el 65% las personas había participado activamente en alguna de ellas en los ultimos 12 meses.

Analizando la presencia y participación en cada una de las estructuras podemos comprobar que salvo en los grupos semi-autónomos, la implicación efectiva es bastante baja (la estructura está activa en la empresa, pero las personas no quieren -cuando es voluntaria- o no pueden participar -cuando es por invitación de los mandos el poder involucrarse en la estructura).

Nuestra intención es continuar con la investigación ampliando la muestra en el periodo 2014-2020 para analizar en cada uno de estos tipos de estructuras:

  • ¿Quienes y cuántos forman esos grupos?
  • ¿Qué actividades o responsabilidades realizan las personas de estos grupos?
  • ¿Qué resultados se obtienen en número de sugerencias implantadas?
  • ¿Qué formación reciben sus componentes?
  • ¿Cómo se recompensa la participación?
  • ¿Qué percepción tienen las personas de estos grupos? (cuando participan y cuando no participan en ellos)

Para saber más:

  • Juarez Tarraga, A., Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2016). High involvement work programs (HIWP) measurement model validation and its capacity to predict perceived performance. Intangible Capital, 12(5), 1308-1400. doi:http://dx.doi.org/10.3926/ic.837
  • Juárez Tarrega, A., Marin-Garcia, J., & Santandreu-Mascarell, C. (2019). What are the main concerns of human resource managers in organizations? . Intangible Capital, In press.
  • Marin-Garcia, J. A., Juarez-Tarraga, A., & Santandreu-Mascarell, C. (2018). Kaizen philosophy: The keys of the permanent suggestion systems analyzed from the workers’ perspective. The TQM Journal, 30(4), 296-320. doi:https://doi.org/10.1108/TQM-12-2017-0176

#EvidenceBased #HRM #OperationsManagement #ContinuousImprovement

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations

Publicado: Losilla et al (2018) Three risk of bias tools lead to opposite conclusions in observational research synthesis

Nuevo artículo publicado que me ha permitido colaborar con estupendos investigadores del área de la salud para seguir avanzando en instrumentos que nos permitan hacer mejor ciencia y, sobre todo, informarla mejor. Algo que me interesa doblemente como editor de WPOM y de JIEM. Por otra parte, sufrir los estándares de publicación de una Q1 en el área de CC de la salud también es una experiencia interesante.

Los artículos científicos publicados en revistas más populares, ¿son de mayor calidad?

Empiezo a encontrarme aportaciones que parecen indicar todo lo contrario; o, al menos, que la popularidad (indice de citas/impacto) no está asociada a la calidad (o no hay una relación causal excesivamente fuerte una vez controladas otras variables de confusión). Un  ejemplo https://docs.google.com/document/d/18uyYykwoy6EAyX39eDfuVwsuPrjokPEuB5MyLmrdi2U
 
Los próximos dos-tres años quiero abrir una linea de trabajo en este sentido centrada en RRHH y OM (pues creo que todas estas cosas se deben analizar  sub-área por sub-área. Pues de un área (o sub-areas) científica a otra  puede haber diferencias -y mucho más si pasamos de Sciencie a Social Science-. En cualquier caso hay que probar que no las haya.

 
 
El trabajo no será rápido pues hay que hacer dos o tres cosas primero.:
  1. Identificar las «revistas del área»
  2. Definir impacto (popularidad) y calidad científica del trabajo (son dos cosas distintas evaluadas por métricas distintas y por «personas» o agentes distintos en momentos distintos de la investigación).
  3. Ver el acuerdo (agreement) entre rankings de impacto diferentes
  4. Probar si los artículos en revistas TOP (en impacto/citas) son de mejor calidad e incluso más impacto que los de revistas no TOP

Quizás nos llevemos la sorpresa de que el impacto del articulo no tenga nada que ver con su calidad, o que el impacto del articulo no tenga que ver con el impacto de la revista (eso es lo que yo sospecho, pero la investigación de los próximos tres años intentará dilucidar si tengo razón o no)

 

¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de «gregales» (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas «indexadas».

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como «indexada» determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus «rankings» porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.