Análisis preliminar de las estructuras organizativas que facilitan la mejora continua

 

A través de nuestra investigación previa (ver referencias al final) hemos identificado 4 estructuras habituales en las empresas para fomentar la mejora continua:

  • Sistemas de sugerencias individuales (SB Suggestion Box)
  • Grupos permanentes de sugerencias (PST Permanent Suggestion Teams)
  • Grupos de mejora de corta duración (Ad-hoc temporary teams like kaizen events)
  • Grupos semi-autónomos (SDWT Self Directed Work Teams)

Hemos recogido datos de 856 operarios-as de empresas españolas o sud-americanas en el periodo 2009-2014. En el 78% de los casos existía alguna de las cuatro estructuras, pero solo el 65% las personas había participado activamente en alguna de ellas en los ultimos 12 meses.

Analizando la presencia y participación en cada una de las estructuras podemos comprobar que salvo en los grupos semi-autónomos, la implicación efectiva es bastante baja (la estructura está activa en la empresa, pero las personas no quieren -cuando es voluntaria- o no pueden participar -cuando es por invitación de los mandos el poder involucrarse en la estructura).

Nuestra intención es continuar con la investigación ampliando la muestra en el periodo 2014-2020 para analizar en cada uno de estos tipos de estructuras:

  • ¿Quienes y cuántos forman esos grupos?
  • ¿Qué actividades o responsabilidades realizan las personas de estos grupos?
  • ¿Qué resultados se obtienen en número de sugerencias implantadas?
  • ¿Qué formación reciben sus componentes?
  • ¿Cómo se recompensa la participación?
  • ¿Qué percepción tienen las personas de estos grupos? (cuando participan y cuando no participan en ellos)

Para saber más:

  • Juarez Tarraga, A., Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2016). High involvement work programs (HIWP) measurement model validation and its capacity to predict perceived performance. Intangible Capital, 12(5), 1308-1400. doi:http://dx.doi.org/10.3926/ic.837
  • Juárez Tarrega, A., Marin-Garcia, J., & Santandreu-Mascarell, C. (2019). What are the main concerns of human resource managers in organizations? . Intangible Capital, In press.
  • Marin-Garcia, J. A., Juarez-Tarraga, A., & Santandreu-Mascarell, C. (2018). Kaizen philosophy: The keys of the permanent suggestion systems analyzed from the workers’ perspective. The TQM Journal, 30(4), 296-320. doi:https://doi.org/10.1108/TQM-12-2017-0176

#EvidenceBased #HRM #OperationsManagement #ContinuousImprovement

Visitas: 18

Publicado: Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10) doi:10.1108/IJPDLM-06-2018-0233

Marin-Garcia, J. A., Alfalla-Luque, R., & Machuca, J. A. D. (2018). A triple-a supply chain measurement model: Validation and analysis. International Journal of Physical Distribution & Logistics Management, 48(10), null. doi:10.1108/IJPDLM-06-2018-0233
 
 
 
Purpose The purpose of this paper is to establish definitions and dimensions of Triple-A supply chain (SC) variables based on a literature review and to validate a Triple-A SC measurement model using a worldwide multiple informant sample. Design/methodology/approach Following a literature review, Triple-A SC variables (agility, alignment and adaptability) are conceptualized and a list of possible items is created for their measurement. An international 309 plant sample is used to validate the convergent and criterion validities of the composites proposed to measure Triple-A SC. Findings Contributions to the literature: clarification of Triple-A SC variable concepts; identification of key dimensions of Triple-A SC variables; development of a validated Triple-A SC measurement scale for future empirical research and industrial applications. Research limitations/implications A rigorously validated instrument is needed to measure Triple-A SC variables and enable researchers to credibly test theories regarding causal links between capabilities, practices and performance. Practical implications Proposal of a scale for use by managers of different functions to analyze Triple-A SC deployment in the company. Originality/value The only Triple-A SC scale used in the previous literature has serious limitations: scales were not taken from an extended literature review; data were collected from single respondents in a single country. This is the first validated Triple-A SC measurement model to overcome these limitations

Visitas: 15

Publicado: Losilla et al (2018) Three risk of bias tools lead to opposite conclusions in observational research synthesis

Nuevo artículo publicado que me ha permitido colaborar con estupendos investigadores del área de la salud para seguir avanzando en instrumentos que nos permitan hacer mejor ciencia y, sobre todo, informarla mejor. Algo que me interesa doblemente como editor de WPOM y de JIEM. Por otra parte, sufrir los estándares de publicación de una Q1 en el área de CC de la salud también es una experiencia interesante.

Visitas: 16

Los artículos científicos publicados en revistas más populares, ¿son de mayor calidad?

Empiezo a encontrarme aportaciones que parecen indicar todo lo contrario; o, al menos, que la popularidad (indice de citas/impacto) no está asociada a la calidad (o no hay una relación causal excesivamente fuerte una vez controladas otras variables de confusión). Un  ejemplo https://docs.google.com/document/d/18uyYykwoy6EAyX39eDfuVwsuPrjokPEuB5MyLmrdi2U
 
Los próximos dos-tres años quiero abrir una linea de trabajo en este sentido centrada en RRHH y OM (pues creo que todas estas cosas se deben analizar  sub-área por sub-área. Pues de un área (o sub-areas) científica a otra  puede haber diferencias -y mucho más si pasamos de Sciencie a Social Science-. En cualquier caso hay que probar que no las haya.

 
 
El trabajo no será rápido pues hay que hacer dos o tres cosas primero.:
  1. Identificar las «revistas del área»
  2. Definir impacto (popularidad) y calidad científica del trabajo (son dos cosas distintas evaluadas por métricas distintas y por «personas» o agentes distintos en momentos distintos de la investigación).
  3. Ver el acuerdo (agreement) entre rankings de impacto diferentes
  4. Probar si los artículos en revistas TOP (en impacto/citas) son de mejor calidad e incluso más impacto que los de revistas no TOP

Quizás nos llevemos la sorpresa de que el impacto del articulo no tenga nada que ver con su calidad, o que el impacto del articulo no tenga que ver con el impacto de la revista (eso es lo que yo sospecho, pero la investigación de los próximos tres años intentará dilucidar si tengo razón o no)

 

Visitas: 15

¿Qué revistas científicas se pueden considerar indexadas de prestigio? ¿existen los predatory indexes?

Con frecuencia recibo consultas acerca de mi opinión sobre la calidad de diferentes revisas. Supongo que me han preguntado porque consideran que soy una persona experta porque he invertido varios años como subdirector de investigación del Departamento de Organización de Empresas en diferentes equipos. O quizás sea por el seguimiento y apoyo que he dado a la comisión de Indice de Actividad Investigadora de la UPV a través de una cantidad bastante elevada de «gregales» (sistema de gestión de incidencias, quejas y sugerencias internas en la UPV) emitidos a lo largo de los últimos 10-12 años. También es posible que me pregunten por mi experiencia con todo el sistema de indexación ya que soy editor jefe o participo en el comité editorial de varias revisas «indexadas».

La última tanda de preguntas recibidas tenía que ver sobre si se podía considerar como «indexada» determinada revista. Interesante cuestión que me ha animado a escribir esta entrada.

Primero quiero insistir en un asunto de terminología:  no se debería hablar de revistas indexadas o no indexadas… indexadas hay miles (es tremendamente sencillo estar indexada en algún sitio, es decir estar dada de alta en una base de datos de revistas científicas). Indexadas con indices relativos hay menos (muchas menos).

Indices relativos tienes en JCR, ScimagoJCR, pero también en Journal Scholar Metrics, google citations, DICE, MIAR, ICV de Copernicus … la dificultad está en definir cuáles de los indices relativos son fiables y dónde están los puntos de corte para marcar revistas de prestigio si el índice no crea bloques o cuartiles. Por ejemplo, Scimago JCR además del índice, agrupa la revistas en cuartiles; DICE tiene las revisas agrupadas en 4 niveles de mas a menos calidad;  pero MIAR o ICV-Copérnicus solo ponen un numero (cuanto más grande mejor, pero no sabes los puntos de corte por niveles).

A estos índices se pueden añadir aquellos desarrollos locales (nacionales, autonómicos, de una universidad o de una asociación científica) que se hayan creado con un fin específico. Por ejemplo, las universidades australianas han pactado un indice que les sirve de referencia; las universidades catalanas usan MIAR como referencia; la universidad de Cambridge tiene  un listado agrupado en 4 niveles (como hace el DICE) que indica cuáles son las revistas de más a menos prestigio; o, por poner un último ejemplo,  la UPV tiene una clasificación de revistas en 4 niveles (ahora están modificándolo para que sean 6), creada por la comisión del Valoración de la Actividad Investigadora de la UPV (que entra dentro del programa DOCENTIA, integra todos los campos científicos en la que la UPV se mueve y lo hace con el espíritu de que sea JUSTA la comparación inter-disciplinas. Además,  tiene un sistema de decisión auditado, sensato y establecido durante años). Por supuesto, ninguno de estos ejemplos es perfecto (no sólo porque es difícil tener claro el criterio que hace que una revisa científica sea de calidad o no) pero representan soluciones de compromiso alcanzadas a través de un consenso y que permiten tener un sistema más ajustado y acorde a las necesidades concretas de una institución.

Personalmente creo que, además de JCR y Scimago JCR, hay algunos otros indices solventes (Journal Scholar Metrics , google citations, DICE, MIAR, ICV de Copernicus…). Quizás, los más claros para el campo de la Organización de Empresas en España serían:

  • DICE-que surge de un convenido de CSIC con ANECA y la ANECA usa esta base de datos como referencia de calidad-
  • Journal Scholar Metrics (en el fondo se alimenta de datos de google scholar citations, pero lo mejora incorporando indicadores bibliométricos más potentes y categorizaciones).

Para finalizar, quería expresar una preocupación que me ha empezado a rondar por la cabeza. Me temo que pronto se disparará el negocio de crear indexadores. Hasta ahora, los índices de revistas que se valoran en España están en manos de grandes grupos editoriales multinacionales (Thompson, Elsevier y quizá Google se puede incluir en este paquete). Nos  hemos fiado de sus «rankings» porque son unas empresas monstruo que han intentado (y casi conseguido) tener el monopolio de este servicio. Pero, en el fondo, son entidades que velan por sus propios intereses y la ciencia es una escusa para hacer su negocio (que, en algunos casos, no es demasiado transparente). También hay índices que  han sido desarrollados por colectivos científicos independientes apoyados con fondos públicos nacionales aunque, paradógicamente, no son considerados por las propias instituciones que los financian, que prefieren dar prioridad a los listados de JCR o ScimagoJCR (también es cierto que España está financiando el desarrollo de JCR y scimagoJCR a través de la suscripción de la FECYT de SCOPUS y WEBofScience para todas las universidades públicas españolas).

En este contexto no resulta imposible imaginar (y esto es lo que me preocupa) que los mismos estafadores que inventan los predatory journals y los predatory meeting, ahora extiendan  su fraude orientándolo a los predatory indexes (porque seguro que hay un negocio en ordenar revistas y habrá gente está dispuesta a pagar una fortuna para que sus revistas estén en la parte TOP de algún indice -independientemente de las garantías científicas del indice-) y ese es un peligro al que tendremos que enfrentarnos en el futuro.

Visitas: 97

Publicado-Marin-Garcia & EtAl (2016) Proposal of a Framework for Innovation Competencies Development and Assessment (FINCODA)

Marin-Garcia, J., Andreu Andres, M., Atares-Huerta, L., Aznar-Mas, L., Garcia-Carbonell, A., González-Ladrón-de-Gevara, F., Montero Fleta, B., Perez-Peñalver, M., & Watts, F. (2016). Proposal of a Framework for Innovation Competencies Development and Assessment (FINCODA). WPOM-Working Papers on Operations Management, 7(2), 119-126. doi:http://dx.doi.org/10.4995/wpom.v7i2.6472

In this article we propose an innovation competence model of the people which is based on the existing literature to integrate and complement existing models. The main contribution of this work consists in demonstrating the differences and similarities of current models and in providing a conceptual definition for each model element. In this way, both researchers and people in charge of human resources in companies obtain a framework with which to design measuring instruments to assess innovation competence, which can fulfill the twofold demand of validity and reliability.

This work has been conducted as part of a European project financed by the European Union [«FINCODA» Project 554493-EPP-1-2014-1-FI-EPPKA2-KA] (http://bit.ly/FINCODA-EUsite01). (The European Commission support for the production of this publication does not constitute an endorsement of the contents which reflects the views only of the authors, and the Commission cannot be held responsible for any use which may be made of the information contained therein); and by the Universitat Politénica de Valencia PIME/2015/A/009/A “Evaluation of innovative behavior indicators in university students”.

Cartton abstract

Keywords

competence assessment; innovation; model; literature review

Visitas: 25

How to follow the DORA recommendation: «provision of information about the specific contributions of each author»

Here you can see a good example of how to follow  The San Francisco Declaration on Research Assessment (DORA), in particular for this point:

  • Encourage responsible authorship practices and the provision of information about the specific contributions of each author.

In this article:

Imagen 1

And this information was added:

Imagen 005

Guardar

Guardar

Guardar

Visitas: 13

Publicado- Gumaelius Et Al (2016-on-line) Outreach initiatives operated by universities for increasing interest in science and technology

Visitas: 21

Publicado-MARIN-GARCIA, Juan A.(2015) Publishing in two phases for focused research by means of «research collaborations»

MARIN-GARCIA, Juan A.. Publishing in two phases for focused research by means of «research collaborations». WPOM-Working Papers on Operations Management, [S.l.], v. 6, n. 2, p. 76-80, dec. 2015. ISSN 1989-9068. Available at: <http://polipapers.upv.es/index.php/WPOM/article/view/4459>. Date accessed: 27 dec. 2015. doi:http://dx.doi.org/10.4995/wpom.v6i2.4459.

(La publicación en dos fases para la investigación enfocada a través de “research collaborations”)

We present and justify a new way to research and publish. This proposal is not intended to substitute or replace traditional ways of doing science, but rather complement, filling a gap and providing an efficient way to achieve scientific advances. The process begins with the sending a proposal of protocol to WPOM. Proposals are evaluated in each of the collaborations, depending on the potential to fill a research niche in the area. In the case of accepted protocols, WPOM guarantees commitment to publish the article if the protocol and deadlines are met. Thus, researchers can develop their projects focusing on meeting the protocol that has been approved without the question of whether, once completed, research is relevant or if the methodology is correct.

—-

En este artículo presentamos y justificamos una nueva forma de investigar y publicar. Esta propuesta no pretende sustituir o reemplazar a los modos tradicionales de hacer ciencias, sino complementarlos, rellenando una laguna y ofreciendo un camino eficiente para lograr los avances científicos. El proceso se inicia con el envío de la propuesta de protocolo WPOM. Las propuestas se evalúan, en cada una de las collaborations, en función del potencial para cubrir un nicho de investigación en el área. En el caso de ser aceptados los protocolos, WPOM garantiza un compromiso de publicación del artículo si se cumple el protocolo y plazos prometidos en el proyecto. De este modo, los investigadores pueden desarrollar proyectos de escritura centrándose en cumplir el protocolo que ha sido aprobado, sin la incógnita de si, una vez terminada, la investigación es relevante o si la metodología es la correcta.

 

Keywords

focused research; protocol; collaboration;Investigación enfocada; protocolos

Visitas: 19

Publicado: Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2015). What do we know about rubrics used in higher education? Intangible Capital, 11(1), 118-145.

Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2015). What do we know about rubrics used in higher education? Intangible Capital, 11(1), 118-145. doi: 1697-9818 – Print ISSN: 2014-3214
http://dx.doi.org/10.3926/ic.538

Acceso al PDF del documento:

http://www.intangiblecapital.org/index.php/ic/article/view/538/462

Purpose: In this paper we compare the search strategies and the results of three recent literature reviews on the rubrics use in education. With all this we aim to identify what is known, what it is not known yet and if there is material to launch a new literature review right now.

Design/methodology/approach: Comparative analysis of three recen literature reviews and systematic literature review.

Findings and Originality/value: Of the 142 papers included in the three recent reviews, few focus on university learning and the results are not broken down by educational level. We believe that there is no conclusive scientific answer to how to create and validate an assessment rubric for university courses, or what purpose they serve , or if it’s worth the effort to develop them. Recommendations for the appropriate use of rubrics are based on anecdotal evidence without robust and proven methodology. Nor is easy to find what subjects, or what objects, and in what contexts have been investigated the rubrics or which validated rubrics are available.

Originality/value: we conducted a new review and we compare the selected papers with those used in previous reviews. We have located 241 new papers not included in previous reviews. Probably all this new material can be used in the future for a meta-analysis

Keywords

rating; scoring; rubric; Higher Education; systematic Literature Review; assessment instrument; educational; learning; self-assessment; peer-assessment

Visitas: 14