Zapatero a tus zapatos. En contra del escrache a revistas académicas

"Un motín es una cosa muy fea" (el Jovencito Frankenstein) y el monstruo no era tan malo, eran más bien los miedos de los aldeanos.

Me ha costado elegir el título de la entrada y espero que nadie se sienta molesto. Pero creo que es lo que mejor representa la situación. Creo, también, que aporta el camino para solucionarlo: si crees que una revista académica, de las que están listadas en Web Of Science (WOS) o Scopus, está incurriendo en malas prácticas editoriales/científicas. En lugar de participar en un linchamiento, usa los procedimientos establecidos para denunciarlo:

El origen de esta entrada son todos los corrillos de sospechas vertidas sobre una revista académica y, por extensión, a la editorial que la publica. Son comentarios del tipo «conozco a alguien en ANECA que me ha dicho que la revista **** es predatory (a pesar de estar en Q* en JCR). Te aconsejo que no publiques en esa revista». Casi siempre, ese comentario suele ir acompañado de la respuesta de otra persona que dice algo parecido a: «si, si, yo conozco a alguien que pago por publicar en esa revista» y se va liando la cosa.

En el fondo, cuando observo todo esto desde fuera, me da la sensación de que es la misma forma como se difunden los bulos o «fake-news» y lo que me preocupa es que haya gente académica enganchada en esta actividad.

Voy a empezar con una frase que igual no me gana amistades y quizás consiga que alguien se moleste y no siga leyendo la entrada (una lástima porque luego explico detalles que pueden ser interesantes):

Que lleves años investigando y publicando no te convierte en experto en evaluación de la calidad editorial de las revistas (yo no lo soy tampoco, por eso creo que hay que ser muy prudentes antes de poner una etiqueta negativa a una revista)

Por suerte, o por desgracia, existen expertos. De hecho, los sistemas de evaluación de la calidad de la investigación en España han abdicado de esa tarea y la han delegado hace años en esos expertos. Exacto. Lo has adivinado. Me refiero a Clarivate-WOS con su JCR y a Scopus, con su «cite-score» o su primo SJR (hay algunos más pero en España no se consideran apenas).

Estas dos plataformas se han convertido en el referente de lo que es una revista académica «con calidad editorial». Normalmente se confunde la calidad editorial de la revista con la calidad científica de los artículos que publica. Se confunde porque tienen cierta relación… Pero son dos cosas distintas. Y casi siempre se confunde calidad científica de un artículo con número de citas recibida (de nuevo, son cosas que pueden estar relacionadas, pero no son lo mismo).

Para WOS y para Scopus, la calidad académica de la revista está clara: se trata de cumplir una serie de criterios, que son los que sus expertos tienen en cuenta para indexar una revista en sus bases, o para expulsarte si dejas de cumplirlos. Puedes consultar la lista de criterios en las tablas 1 y 2 de https://polipapers.upv.es/index.php/WPOM/article/view/8989/9910 o aquí. https://www.elsevier.com/solutions/scopus/how-scopus-works/content/content-policy-and-selection


Por lo tanto, primera conclusión:

Si una revista está en uno de esos listados es una garantía de que es una revista «decente» (estar en dos, significa que, además tienes dinero o tiempo para toda la burocracia que exige estar en esos listados)

Obviamente las revistas pueden evolucionar, para bien o para mal. Las personas que actúan como editoras de la revista pueden tomar decisiones que no coinciden con las normas publicadas de la revista (las que determinan su calidad editorial). A veces son errores esporádicos y aleatorios. Eso no representa ningún problema. Solo cuando estas desviaciones son sistemáticas, estamos ante un caso de posible «fraude académico» y eso se puede (y se debe denunciar) para que los servicios de indexación (Scopus y WOS) pueda actuar y sacarla del listado si fuese necesario.

Si en lugar de denunciarlo a WOS o a Scopus, nos dedicamos a criticar en corrillos y hacer de «la vieja del visillo», creo que no hacemos ningún favor a la ciencia. La denuncia la debe iniciar la persona que haya sufrido la situación o las que tengan pruebas fehacientes de la mala praxis.

Segunda conclusión:

por muy diligentes que sean WOS y Scopus, limpiar sus bases les cuesta cierto tiempo (quizás un par de años desde que una revista inicia un camino equivocado hasta que es expulsada). Entre otras cosas, porque primero deberían advertir y, solo si no corrigen la trayectoria, expulsar a la revista.

Pero los pobres mortales que nos dedicamos a investigar y difundir los resultados de nuestra investigación, o las comisiones de evaluación (que están formadas por un grupo de esos mismos mortales), no tenemos las herramientas para estar al tanto de todo esto y solo podemos fiarnos de lo que hacen los expertos (WOS y Scopus). Porque los hemos considerado como tales. Nadie nos obligaba, pero decidimos otorgar todo el poder a la posición de cuartiles de las revistas (porque es cómodo y barato y sencillo y cuantificable y objetivo). Por lo tanto, ahora hemos de ser coherentes y transparentes.

Tercera conclusión:

No se pueden aplicar penalizaciones con efectos retroactivos. Si dices que un Q1 es una revista buena, no puedes luego decir, que bueno, depende de qué Q1, porque ahora voy a ser yo el experto, unas veces el experto es WOS/Scopus y otras yo… según me convenga y con efectos retroactivos. Eso, a mi, no parece muy transparente.

Pero ¿qué es una mala praxis editorial? pues la verdad es que no hay muchas (http://redc.revistas.csic.es/index.php/redc/article/view/868/1172). normalmente los problemas de mala praxis son más problemas de los propios autores-as que de los editores-as de las revisas.

Por eso voy a centrarme en cosas que suelen criticarse pero NO son malas prácticas. Aunque nos extrañen, sean «novedosas», o no nos gusten, o no las compartamos, o creamos que los fondos públicos de investigación no deberían ir a parar a los bolsillos de editoriales que se están haciendo un gran negocio con la publicación científica (como Elsevier, SAGE, MDPI, Frontiers y otras).

  • Publicar muchos artículos al año: eso no es ni bueno ni malo. Debes tener recursos para gestionar el volumen, solo eso. Si cuentas con suficientes personas como para hacer un filtrado y una buena revisión de todo ese volumen, no hay nada que objetar (quizás envidiar cómo lo consigues). Hay revistas con muy buena imagen científica que publican miles de artículos al año (y nadie se cuestiona su calidad). En el fondo si publican mucho y están altas en los indices de impacto es que hay mucha (muchísima) gente que cita sus trabajos, de modo que: a) tan malos no son los artículos que publica; b) el número de citas no sirve para valorar la calidad de un trabajo de investigación; c) están haciendo trampas para inflar las citas (solo en este caso es denunciable y quien tenga una evidencia, que lo denuncie cuanto antes).
  • Hacer muchos «Special Issues»: en principio es lo mismo que el punto anterior, con un pequeño matiz. Los números regulares los filtras con el equipo editorial de la revista. Para los números especiales fichas a gente que va a colaborar de manera puntual. Si el «fichaje» se hace con criterio y se elije a personas que se van a implicar y tienen buen conocimiento del tema del número especial, no debería constituir ningún problema (más bien todo lo contrario). De modo que si la revista puede hacer una buena selección de editores-as y puede gestionar ese volumen extra de trabajo, estamos con en el primer punto. Nada que objetar.
  • Cobrar APC (Article Processing Charges) a los autores: mantener una revista tiene un coste. O lo paga una asociación o universidad, o lo paga el lector o lo paga el autor. No le veo muchas más opciones. ¿Que algunas tasas de APC están o sobrepasan el límite de la usura? Si, estoy de acuerdo. Pero eso no significa que no tengan calidad (editorial o científica de sus trabajos), solo significa que alguien quiere aprovechar la situación para hacer dinero con un modelo de negocio legal (nos guste o no).
  • Cerrar el proceso editorial rápido: esto no es ningún problema. Al revés, es lo que todos desearíamos: que el proceso editorial sea lo más rápido posible sin perder su rigor. Si haces un análisis de tiempos, procesar un artículo probablemente no requiere de más de 15-20 horas de tiempo neto. Repartidas entre 4-6 personas diferentes que, en algunas etapas, pueden trabajar en paralelo. El problema es cuánto tardas en liberar el tiempo necesario para ocuparte del articulo. Tener el articulo 3 semanas en tu bandeja de entrada no le aporta ningún valor al proceso de revisión ;-).
  • Hacer un marketing «agresivo» de la revista (mandar correos a profesionales que publican sobre los temas de la revista): que nos llenen la bandeja de entrada con correos invitándonos a mandar artículos o leer sus publicaciones puede no gustarnos… Pero es lo que hay. Yo, al menos, prefiero que el SPAM de mi correo sea información sobre números especiales de temas sobre los que publico o sobre la tabla de contenidos de una revista que suelo leer, que el de la señora nigeriana que me informa de que acaban de nombrarme heredero de un millón de dólares.
  • Que se les cuelen algunos artículos flojos: si publicas 3.000 artículos al año. Es normal que algunos de ellos sean flojitos o incluso que alguno tenga problemas serios (si publicas 10 al año es raro que te pase, pero cuando subes exponencialmente, aunque tengan un 99% de acierto en el filtro, si los buscas, vas a poder encontrar artículos con problemas). Lo importante no es que encuentres uno, sino el % que representan los problemáticos sobre todo lo que gestiona la revista.
  • Que el editor-a jefe-a tenga una opinión diferente de uno-a de los revisores-as: salvo que las normas de la revista digan que el editor hará caso a la decisión del revisor más negativo, no es una mala praxis que la persona que ocupa el puesto de editora jefa de la revista haga valer su criterio cuando sea necesario.

Para terminar, como las críticas a estas revisas siempre se basan en una experiencia personal: «yo vi una cosa fea una vez, por lo tanto, no solo la revista, sino también la editorial y todas las revisas que publican son una mierda». lo voy a contrarrestar con el mismo argumento: yo he visto, no solo una, sino dos cosas muy positivas en una revista de la editorial MDPI, por lo tanto la revista, la editorial y todas sus revisas son fantástica. Aquí os relato mi experiencia:

Como autor en un numero especial. La editora jefa era una académica de rigor indiscutible. También he visto algunos nombres conocidos y respetados al frente de otros números especiales.
Recibo 4 revisiones muy completas y muy exigentes. No nos pusieron fácil levantar el «major revision». Pero lo conseguimos tras muchas horas de trabajo. Los comentarios eran realmente de expertos que se habían tomado muy en serio la revisión. Todo el proceso fue muy rápido… de hecho tuvimos que pedir ampliación para envío de la respuesta. Es cierto que la revista hace negocio cobrando una cantidad alta de euros en caso de aceptar la publicación, pero es tan alta como otras muchas revistas de SAGE o de Elsevier y el servicio al autor es mucho mejor.

Como editor de un numero especial. Las decisiones editoriales son cosa mía (he decidido rechazar más del 50% de los envíos y no me han puesto ninguna pega). Además, la ayuda a selección de revisores es muy buena, son investigadores afines a los temas y tras aceptar la revisión suelen hacer revisiones muy exhaustivas y en plazo. A veces intentan asumir el rol de editor más que de revisor (cosa que pasa muchas veces con otras revistas TOP). Y un detalle que no es banal. Soy editor del numero especial y el articulo que mando como editorial ha sido revisado por 4 revisores y ha sido gestionado por otro editor de la revista (no se quién es, ni quien me hace las revisiones. Todo el proceso es ciego para mi). En estos momentos lo tengo en segunda revisión porque me han metido bastante caña. Esto no pasa con los «special issues» de ninguna de las otras revistas Q1 que conozco. Allí las editoriales pasan sin filtro… pues aquí las filtran como si fuese un artículo más. De modo que son mucho más exigentes que otras.

 

Call for papers: High Performance Work Practices and Kaizen: How Sustainable are They?

Ya está abierto el Call for Papers para el número especial del que soy editor jefe: «High Performance Work Practices and Kaizen: How Sustainable are They?» en la revista International Journal of Environmental Research and Public Health (ISSN 1660-4601). La revista es Q1 en JCR en la categoría PUBLIC, ENVIRONMENTAL & OCCUPATIONAL HEALTH – SSCI  y Q1 en citescore de scopus, en la categoria Public Health, Environmental and Occupational Health.

Un pocas palabras, el tema del número especial es:

This Special Issue addresses the sustainability of high-performance work practices or kaizen, from the point of view of their long-term effects on organizations, the environment and workers’ well-being. In this way, we hope to present a set of contributions that will enable development (people, planet, and profit) to be addressed from different perspectives.

Pero convine que miréis la información detallada en: https://www.mdpi.com/journal/ijerph/special_issues/Work_Kaizen     

En la pagina web no aparecen la lista de referencias citadas, pero puedes consultarla aqui:

  • Alfalla-Luque, R., Marin-Garcia, J. A., & Medina-López, C. (2015). An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance. International Journal of Production Economics, 162(April), 242–257. doi:http://dx.doi.org/10.1016/j.ijpe.2014.07.004
  • Andersén, J., & Andersén, A. (2019). Are high-performance work systems (hpws) appreciated by everyone? The role of management position and gender on the relationship between hpws and affective commitment. Employee Relations, 41(5), 1046-1064. doi:10.1108/ER-03-2018-0080
  • Caniëls, M. C. J., & Veld, M. (2019). Employee ambidexterity, high performance work systems and innovative work behaviour: How much balance do we need? International Journal of Human Resource Management, 30(4), 565-585. doi:10.1080/09585192.2016.1216881
  • Chang, P. C., Wu, T., & Liu, C. L. (2018). Do high-performance work systems really satisfy employees? Evidence from china. Sustainability (Switzerland), 10(10). doi:10.3390/su10103360
  • Ciravegna Martins da Fonseca, L. M. (2015). Iso 14001:2015: An improved tool for sustainability. Journal of Industrial Engineering and Management, 8(1), 37-50. Doi: 10.3926/jiem.1298
  • Daily B. F., & Huang S. (2001). Achieving sustainability through attention to human resource factors in environmental management. International Journal of Operations and Production Management, 21(12), 1539-1552. Doi: 10.1108/01443570110410892
  • Dania, W., Xing, K., & Amer, Y. (2018). Collaboration behavioural factors for sustainable agri-food supply chains: A systematic review. Journal of Cleaner Production, 186, 851-864. Doi: 10.1016/j.jclepro.2018.03.148
  • Fagnani, E., & Guimarães, J. (2017). Waste management plan for higher education institutions in developing countries: The continuous improvement cycle model. Journal of Cleaner Production, 147, 108-118. Doi: 10.1016/j.jclepro.2017.01.080
  • Fresner, J. (1998). Starting continuous improvement with a cleaner production assessment in an Austrian textile mill. Journal of Cleaner Production, 6(2), 85-91.
  • Gollan, P. J., Kalfa, S., Agarwal, R., Green, R., & Randhawa, K. (2014). Lean manufacturing as a high-performance work system: The case of cochlear. International Journal of Production Research, 52(21), 6434-6447. doi:10.1080/00207543.2014.940430
  • Govindarajulu, N., & Daily, B. F. (2004). Motivating employees for environmental improvement. Industrial Management and Data Systems, 104(4), 364-72.
  • Han, J., Jian-Min, S., & Wang, H. L. (2019). Do high performance work systems generate negative effects? How and when? Human Resource Management Review. doi:10.1016/j.hrmr.2019.100699
  • Jabbour, Ch. J., Santos F., & Nagano, M. (2008). Environmental management system and human resource practices: is there a link between them in four Brazilian companies? Journal of Cleaner Production, 16(17), 1922-1925. Doi: 10.1016/j.jclepro.2008.02.004
  • Karadas, G., & Karatepe, O. M. (2019). Unraveling the black box: The linkage between high-performance work systems and employee outcomes. Employee Relations, 41(1), 67-83. doi:10.1108/ER-04-2017-0084
  • Luu, T. (2019). Promoting logistics performance in vietnam-based manufacturing firms: The role of service-oriented high-performance work systems and mediation mechanisms. International Journal of Physical Distribution and Logistics Management, 49(1), 52-74. doi:10.1108/IJPDLM-07-2017-0238
  • Miao, R., & Cao, Y. (2019). High-performance work system, work well-being, and employee creativity: Cross-level moderating role of transformational leadership. International Journal of Environmental Research and Public Health, 16(9). doi:10.3390/ijerph16091640
  • Renwick, D.W., Redman, T., & Maguire, S. (2013). Green human resource management: A review and research agenda. International Journal of Management Reviews, 15(1), 1-14.
  • Sanchez-Ruiz, L., Marin-Garcia, J. A., & Blanco, B. (2018). Protocol: A meta-review on continuous improvement to know the state of this research field. WPOM-Working Papers on Operations Management, 9(2). doi:10.4995/wpom.v9i2.10752
  • Siddique, M., Procter, S., & Gittell, J. H. (2019). The role of relational coordination in the relationship between high-performance work systems (hpws) and organizational performance. Journal of Organizational Effectiveness, 6(4), 246-266. doi:10.1108/JOEPP-04-2018-0029
  • Singh, S., Ramakrishna, S., & Gupta, M. (2017). Towards zero waste manufacturing: A multidisciplinary review. Journal of Cleaner Production, 168, 1230-1243. Doi: 10.1016/j.jclepro.2017.09.108
  • Tariq, S., Ali Jan, F., & Ahmad, M. S. (2016). Green employee empowerment: A systematic literature review on state-of-art in green human resource management. Quality & Quantity, 50, 237–269. Doi: 10.1007/s11135-014-0146-0
  • Vieira L., & Amaral, F. (2016). Barriers and strategies applying cleaner production: A systematic review. Journal of Cleaner Production, 113, 5-16. Doi: 10.1016/j.jclepro.2015.11.034
  • Wang, Z., Xing, L., & Zhang, Y. (2019). Do high-performance work systems harm employees’ health? An investigation of service-oriented hpws in the chinese healthcare sector. International Journal of Human Resource Management. doi:10.1080/09585192.2019.1579254
  • Way, S. (2002). High performance work systems and intermediate indicators of firm performance within the us small business sector. Journal of Management, 28, 765-785.
  • World Commission on Environment and Development. (1987). Our common future (brundtland report): United Nations
  • Zhou, Y., Fan, X., & Son, J. (2019). How and when matter: Exploring the interaction effects of high-performance work systems, employee participation, and human capital on organizational innovation. Human resource management, 58(3), 253-268. doi:10.1002/hrm.21950

https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02368/full

Just published Bonavia, T., & Marin-Garcia, J. A. (2019). Spanish validation of the leader empowering behavior questionnaire (lebq). Frontiers in Psychology, 10(2368). doi:10.3389/fpsyg.2019.02368
#HRM #ContinuousImprovement #TalentManagement

The concept of empowering leadership (EL) has attracted widespread academic and practical interest and different questionnaires have been developed to measure it. However, there are no instruments to measure EL in the Spanish language. This article presents the translation, adaptation, and validation of a scale to measure this construct. In addition, it analyzes the relationship between managers’ EL and employees’ job satisfaction. In turn, the study analyzes whether employees who participate in a greater number of continuous improvement (CI) programs have supervisors who favor more empowering behaviors. A total of 739 participants with various occupations from different companies that have implemented CI processes filled out the Spanish version of the Leader Empowering Behavior Questionnaire (LEBQ-sp). Two different subsamples were used to test the relationships between the LEBQ and job satisfaction and CI, by means of Pearson’s correlation coefficient and analysis of variance, making it possible to provide evidence about the validity of the Spanish LEBQ. The confirmatory factor analysis supported the original structure of the six-factor model. The factors show a high level of internal consistency, as well as sufficient convergent and discriminant validity. Moreover, the results show that the more companies invest in formal CI programs, the more important it is for their leaders to adapt their behavior by displaying more EL. The LEBQ-sp is a valid and reliable instrument for use in research and a useful tool for applied purposes in the context of Spanish-speaking countries.

¿Qué han investigado los académicos sobre comunicación interna entre 2013 y 2018?

(ver información ampliada en  https://www.linkedin.com/pulse/qu%25C3%25A9-han-investigado-los-acad%25C3%25A9micos-sobre-comunicaci%25C3%25B3n-marin-garcia)

Estrategia de búsqueda:
"internal communication" en titulo, resumen o palabras clave
de revistas  indexadas en SCOPUS
Publicado entre 2013 y 2018
en revistas catalogadas en categoria de empresa o economía
255 resultados
Tras filtro manual, 55 seleccionadas

Tras leer los resúmenes, parece que pocas hablan de herramientas concretas. He hecho un mapa conceptual de los contenidos aparentes de los 55 artículos (no los he leído aún, de modo que quizás mi mapa no represente adecuadamente los contenidos).

Respecto a herramientas, la investigación actual se centra en «social media» y la vinculan como herramienta de marketing interno (como una analogía a las capacidades de social media como herramienta de marketing externo). También se investiga sobre los resultados de la comunicación interna, pero parece que suelen abordarla como un todo global y no analizar el efecto concreto de una herramienta específica. Un tercer bloque de investigación se centra en qué herramientas serían más eficientes en contextos de crisis (o cambio o inestabilidad), y qué función puede cumplir en ese contexto. Sin duda esto se debe al pasado reciente de la crisis, pero quizás siga siendo un tema interesante en algunos sectores, donde la crisis dejó un entorno marcado por la incertidumbre o la inestabilidad.

#EvidenceBased #HRM

Diagrama de Eishenhower de actividades del profesor universitario

Estoy embarcado en una investigación (Action Research) sobre barreras y facilitadores para la investigación (innovación) sobre aprendizaje, por parte del personal docente e investigador (PDI) de universidades españolas. Es decir, cosas que ayudan o frenan a que los PDI investiguemos sobre la docencia/aprendizaje en nuestras asignaturas.

El origen de esta investigación es la constatación de que los PDI «no pedagogos» apenas publicamos los resultados de nuestra investigación sobre aprendizaje (Marin, 2018). Lo que me hace sospechar que, en el fondo, ni investigamos, ni reflexionamos, ni innovamos en este aspecto. Esta sospecha está alentada porque casi nunca oigo hablar a mis «compañeros“ de la docencia basada en evidencia (o el scholarship, que podría ser un sinónimo). La docencia basada en evidencia (EB-learning) se basa en investigar sobre cómo aprenden nuestros alumnos nuestras asignaturas y publicar en revistas ( o difundir por otros medios) los resultados de dichas investigaciones.

Es posible que haya PDI que no investiguen sobre aprendizaje porque no tienen ninguna duda de como abordar/enfocar su docencia en ningún momento, ni en ninguna de sus asignaturas: tienen muy claro qué objetivos de aprendizaje busca; y  qué contenidos/ desarrollo de habilidades y actitudes pretende en sus alumnos, qué secuencia, qué métodos de impartición y de evaluación y qué recursos son los más adecuados para que los alumnos alcancen esos objetivos. Y cuando las cosas cambian -planes de estudio, aulas, madurez de los alumnos….- no tienen ningún problema en encontrar el nuevo ajuste en todas esas variables. Asumo con cierta envida (sana, si existe la envidia de ese tipo), que son seres afortunados y entiendo que no investiguen en algo que no les aporta ningún valor.

Otros PDI pueden considerar que la docencia no es relevante/importante porque son INVESTIGADORES y cualquier otra cosa es quitar tiempo a su importante función de investigar. Tampoco me veo representado en este colectivo.

Yo creo que los PDI de universidades públicas españolas somos esencialmente docentes. O si lo preferís, entre un 50% y un 100% de nuestro tiempo se espera que seamos unos docentes dignos (en esta entrada del blog planteo algunos escenarios sobre esto y en esta otra lo matizo). No me atrevo a decir lo que deben ser los PDI de otros países o de universidades privadas. Pero considerando que los presupuestos de la universidad (al menos la mia) llegan en un 90% por alumnos matriculados; y que según “decreto Wert” (a falta de un estatuto del PDI claro en estas cuestiones), nos pagan por 1.700 horas/año que son equivalentes a 32 ECTS-docentes (un sexenio activo lo equiparan a 8 ects-docentes y 3 (ó 4) sexenios a 16 ECTS-docentes). Por lo tanto, la investigación (toda la actividad investigadora, tanto docente y del área) puede llegar a suponer entre un 25% y un 50% de nuestra paga/dedicación, dependiendo del numero de sexenios ACTIVOS y nuestra categoría profesional (CU o «no CU»).

 

Resumiendo,yo me considero un docente (al menos el 66% de mi tiempo remunerado) y tengo dudas sobre muchos aspectos de mi docencia; y creo que investigar sobre ello me convertiría en un mejor profesional. Además considero que esto es extensible a todas las personas que comparten mi profesión. De modo que hay cosas que me interesa analizar.

Lo primero que he hecho es intentar conocer donde invertimos nuestro tiempo. De momento tengo unos datos que no son generalizables, porque la muestra es muy pequeña y de conveniencia (33 profesores del área de conocimiento de «organización de empresas»). La imagen muestra estos resultados preliminares que confirman que no se dedica mucho tiempo a investigar en docencia/aprendizaje o en innovar en este tema. Aunque se percibe como una actividad de importancia moderada-alta.

Mi siguiente paso (estoy en ello) es identificar las barreras y facilitadores y escribir un artículo sobre el tema (os iré informando).

Referencias

  • Marin-Garcia, J. A. (2018). What are the research focuses regarding learning in the field of operations management in higher education? The case of spain in 2017. Journal of Industrial Engineering and Management, 11(4), 607-616. doi:http://dx.doi.org/10.3926/jiem.2550
  • Ramio, C. (2014). Manua para los atribulados profesores universitarios. Madrid: CATARATA.

Lanzamiento del grupo EBHE-Investigación aprendizaje universitario para no pedagogos

https://www.facebook.com/groups/410323596443222/
EBHE-Investigación aprendizaje universitario para no pedagogos
Closed group · 11 members
 

Join Group

 

Este grupo promociona la docencia basada en evidencia (scholarship) de docentes/investigadores universitarios de áreas científicas distintas a las ciencias de le educación (donde no siempre el investigar sobre como aprenden sus alumnos es considerado un tema «del área»).
 

Publicado: Marin-Garcia, J. (2018). What are the research focuses regarding learning in the field of operations management in higher education? The case of Spain in 2017. Journal of Industrial Engineering and Management, 11(4), 607-616. doi:http://dx.doi.org/10.3926/jiem.2550

Publicado: Marin-Garcia, J. (2018). What are the research focuses regarding learning in the field of operations management in higher education? The case of Spain in 2017. Journal of Industrial Engineering and Management, 11(4), 607-616. doi:http://dx.doi.org/10.3926/jiem.2550

Purpose: What are the current research topics being studied by higher education professors in the area of operations management in Spain with regard to the learning of their students? Are the approaches that support these investigations adequate?

Design/methodology/approach: For the analysis, we have selected 25 publications in peer-reviewed scientific journals published by Spanish authors in 2017, and we have encoded them using Atlas.ti.

Findings: Most of the research centers on a very basic type of approach to learning, which reproduces the type of research typically conducted more than 40 years ago (type 1). For this reason, we propose an example of how to convert type 1 research questions into type 2 or 3 questions.

Originality/value: This paper collects and summarizes the main works on learning research carried out by members of ACEDEDOT and published in 2017, identifying themes, methods, levels of teacher conception and focus on the type of student learning. We intend to use this information to create a map of the current situation and propose possible suggestions to implement evidence-based instruction on operations management.

Keywords

scholarship, student learning, student engagement, higher education

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations

Publicado: Losilla et al (2018) Three risk of bias tools lead to opposite conclusions in observational research synthesis

Nuevo artículo publicado que me ha permitido colaborar con estupendos investigadores del área de la salud para seguir avanzando en instrumentos que nos permitan hacer mejor ciencia y, sobre todo, informarla mejor. Algo que me interesa doblemente como editor de WPOM y de JIEM. Por otra parte, sufrir los estándares de publicación de una Q1 en el área de CC de la salud también es una experiencia interesante.

¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de «gregales» (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas «indexadas».

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como «indexada» determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus «rankings» porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.