Cosas que no debo dar por sentadas sobre el trabajo en equipo

Durante esta semana he estado observando diversas reuniones (como participante o simplemente analizando cómo trabajan mis estudiantes). Algunas de esas reuniones se han realizado presencialmente y otras en modo remoto. Os comparto mis lecciones aprendidas sobre cosas que yo daba por supuesto y la realidad me ha mostrado que, en estos ejemplos de conveniencia (y para nada generalizables), no se cumplían.

Lección 1. No está claro que cualquier persona con varios años de formación universitaria sabe trabajar en grupo.

La tendencia es a pensar que, aunque no hubieran aprendido en su etapa de formación en el instituto, está claro que tras varios años en la universidad, con las tareas en grupo que se les encargan (tanto en prácticas como en dinámicas de aula) y saldrían de serie con unos comportamientos básicos aprendidos. Si estamos pensando en profesores o investigadores o profesionales que estudiaron hace años en la universidad, como continuamente hay que trabajar en grupo, todos deben ser expertos.

Pero la realidad es que si planteas una tarea en grupo sin dar unas directivas específicas de qué hacer en cada momento y cómo (es decir tele-dirigiendo completamente al equipo), muchas veces observas comportamientos individuales. Cada uno hace «lo suyo», sin interaccionar con los demás, y sin tener muy claro qué es lo que los demás esperan de su tarea y, al final juntan las partes y ya está  (grupos «grapadora»: se juntan solo para grapar o encuadernar las partes). El resultado es un poco «monstruo de Frankenstein».

Y si el grupo está en remoto, esta «tendencia» a hacer las cosas individualmente y no interactuar con el resto de personas del grupo se acreciente mucho. Esto me lleva a reflexionar sobre si los patrones de interacción en los grupos remotos y en los grupos presenciales son distintos (en el mismo contexto de discrecionalidad de tarea y con mismas personas, solo cambiando de presencial a remoto).

Voy a ver si alguien ha escrito algo sobre «interaction paths in remote meetings»

Lección 2. Desempeñarte muy bien en reuniones presenciales no garantiza que seas capaz de trasladar los comportamientos adquiridos en presencial a entornos remotos.

Esto lo he podido comprobar ampliamente durante los últimos años (en pandemia) y sigo observándolo en casi todas mis reuniones remotas actuales (en las de esta semana  también).

Gente a la que conozco y he visto interactuar en reuniones presenciales, olvidan muchas de las «buenas prácticas» cuando se embarcan en una reunión remota.

Por ejemplo, dar «feedback» a los demás participantes (reformulando las ideas, asintiendo/negando con la cabeza o siendo expresivo con el lenguaje no verbal, manteniendo el contacto visual periódico con todas las personas participantes…). Todas las reuniones donde he participado en remoto eran lo más parecido a una partida de póker (o de «truc») profesional. Nadie expresaba «emociones», todos los canales de comunicación rica cortados… Un desastre.

Se podría alegar que la tecnología no lo permite. Pero no es cierto. Acepto que la riqueza del canal mediado por una pantalla y un teclado (mas una cámara y un micro), no es la misma que un presencial cara a cara. Pero entre blanco que negro hay un conjunto de grises, y otros colores. Por ejemplo:

  • ¿Por qué no usas los emoticonos disponibles en todas las plataformas de videoconferencia? Al menos para demostrar tu apoyo tienes varias opciones (aplauso, corazón, caritas sonrientes). Cierto que no hay ninguna para mostrar desacuerdo. Pero ya llegarán o puedes usar algunas de las otras opciones que comento a continuación
  • ¿Por qué apagas tu cámara cuando los demás hablan -y la conectas cuando vas a hablar tu-? ¿Es que no consideras relevante mostrar tu escucha activa a la persona que habla?
  • ¿Por qué no sonríes, disientes, asientes, levantas tu pulgar, muestras el pulgar hacia abajo, o expresas con cara y manos durante la reunión? Obviamente si eres de los del punto anterior (que apagan la cámara en las reuniones) todo esto ya no aplica
  • ¿Por qué no usas el chat para reformular ideas o mostrar «emociones» o tu punto de vista sobre lo que se está hablando? Algunas personas han llegado a pedir que no se use el chat porque «despista» al que habla. Vale, lo entiendo en un contexto de «monólogo», pero no en una reunión de grupo. Precisamente estos «despistes» son los que permiten enriquecer la comunicación y que el esfuerzo de reunirnos síncronamente se compense de alguna forma. Si no, con grabar un video y distribuirlo te ahorras una buena parte de la reunión (cada uno se ve el vídeo por su cuenta y luego planteas una reunión corta donde se va a hablar exclusivamente de las dudas o contrastar opiniones sobre lo expuesto)
  • ¿Por qué no hay forma de saber cuántas personas están realmente conectadas en la reunión y no solo una sesión abierta? Esas veces donde preguntas a una de las personas que supuestamente está conectada y pasan segundos o minutos o cuartos de hora y no contestan (ni siquiera un mensaje en el chat)

Lección 3. No todo el mundo es capaz de mantenerse centrado en las tareas del grupo cuando estás en remoto (ni cuando estás en presencial)

En presencial es común desde hace años que los estudiantes (y también los profesionales en sus grupos de trabajo) se dispersen atendiendo sus dispositivos móviles mientras otras personas están intentando participar en una reunión. Yo creo que el tiempo de grupo es sagrado porque representa mucho esfuerzo sincronizar las agendas para tener un tiempo de intercambio común. Sin embargo, hay personas que consideran que contestar cualquier mensaje que les llegue a su móvil (de redes sociales o de comunicación instantánea), o revisar quién llama o incluso atender una llamada es más importante que el tiempo de las otras personas de la reunión. No estoy hablando de asuntos importante que se haya advertido al principio de la reunión que es posible que interrumpan nuestra atención.

Pues en remoto ya os podéis imaginar lo que puede llegar a pasar con personas sin los hábitos adecuados de respeto al grupo.

Una de las cosas que me ha sorprendido esta semana es que los estudiantes que estaban en una actividad de grupo presencial (en un entorno mucho más incómodo y ruidoso) rendían como el doble o el triple que los que estaban en la misma actividad en remoto (en la tranquilidad de sus casas, en habitaciones individuales y, aparentemente, sin distracciones). En el mismo tiempo, los primeros leían una media de dos o tres documento y los segundos sólo uno y no llegaron a completar su lectura.

Lección 4.Tras dos años trabajando en grupo en remoto muchas personas siguen sin saber utilizar las aplicaciones

Antes de que me hagáis una crítica fácil. No me refiero a que la aplicación se haya actualizado y ahora los botones o menús estén en otro lado (eso es absolutamente disculpable) o que en una reunión con personas de otras organizaciones te veas forzado a usar una aplicación nueva que no es la que se emplea como aplicación corporativa en tu organización habitual.

Lo que intento decir es que las personas de una organización no saben usar las aplicaciones que su organización lleva como mínimo desde marzo 2020 utilizando para su trabajo remoto. En el caso de mis estudiantes, esa aplicación se llama Office365. Pues bien, dos años después hay personas (y no una, ni dos), que no saben editar de manera compartida y síncrona un documento de texto, presentación u hoja de cálculo con Office365. Algunas personas, ni siquera saben que eso es posible y consideran que solo «google drive» ofrece esa funcionalidad.

Me he quedado pasmado viendo como mis estudiantes hacían una ronda para recoger todos los emails para poder editar un documento de texto en google drive, cuando tenían, al mismo tiempo abierto TEAMS y la posibilidad de crear un documento en TEAMS al que, automáticamente, todos tenían permisos de edición.

No me vale la excusa de «es que yo domino Google Drive» (porque no es cierto, no saben como exportar le documento creado en un formato «.docx») o que «en drive es más fácil o se pueden hacer cosas que Office365 no puede» (yo creo que es justo al revés)

Lección 5. Se presta muy poca atención a como se «etiquetan» los documentos generados por el grupo

En todos los grupos en los que participo, cada personas nombra los documento del modo que le apetece (muchas veces son un críptico: «documento1.docx», que es el nombre por defecto que sale al indicar que quieres guardar un archivo). Esto pasa incluso cuando das normas explícitas a un grupo indicando cómo quieres que se nombren los ficheros para poder luego archivarlo (y recuperarlos) con facilidad (sin tener que dedicar tiempo de un «archivero» a que renombre cada uno de los documentos).

En mi opinión los documentos que genera el grupo es la esencia que queda como resultado del tiempo invertido. Como mínimo debería haber un acta, pero también puede haber otros «productos» específicos liberados en forma de documento (texto o imágenes o fotos o lo que sea).

Si esos documentos no se van a tener que consultar nunca más, los puedes etiquetar como te apetezca, porque no va a afectar a nada. De hecho si no los vas a consultar nunca más, te puedes ahorrar el hacer el documento (y quizás también la reunión. Porque si de la reunión no se deriva nada que debas usar en futuro, aunque solo sea un acuerdo o una lista de tareas, quizás es que no era muy necesaria).

Sin embargo, si vas a reutilizar el resultado del grupo (o puedes necesitar consultarlo en el futuro), es imprescindible que ése documento sea localizable. La forma más efectiva que yo he encontrado es «etiquetar» el documento en el nombre del fichero (eso nunca falla). Yo, como mínimo pongo la fecha en la que se ha realizado el documento, el contexto del equipo o proyecto al que pertenece y algunas palabras que pueden servir de clave para localizar el documento por tipo (acta, acuerdo, propuesta, plantilla, lecciones-aprendidas) y otras para poder filtrar y evitar «falsos positivos»

 

Problemas que aparecen trabajando en equipo

angry manager
Foto de Negocios creado por DCStudio – www.freepik.es

En la última sesión de una de mis asignaturas, los estudiantes identificaron los siguientes problemas que han experimentado trabajando en equipo (en entornos de educación universitaria). He parafraseado e integrado las ideas (y no me he podido resistir, he puedo algunos comentarios míos en corchetes cuadrados con color diferente):

  1. Personas que no se implican o toman en serio el trabajo a realizar ([incumplen las fechas acordadas, se aprovechan del trabajo de otros, polizón/»free-riders»])
  2. Personas extremadamente críticas hacia otras opiniones que no sean las suyas propias
  3. Personas que te presionan continuamente para que completes tu tarea ([¿en serio? ¿esto es un problema o el problema es no completar las tareas cuando se acordó?])
  4. No querer reunirse para realizar el trabajo (dificil coordinar horarios, poco interés, sobrecarga de otras tareas, o cualqueir otro motivo), se preparte la tarea y luego se junta ([yo a esto le llamo «grupos grapadora», no hay interacción , ni interdependencia, ni sinergia, ni aprendizaje cruzado…Simplemente se ven el día del reparto y el dia que «grapan» las partes del informe a entregar])
  5. No mostrar empatía o interesarse por lo que necesitan las demás personas del equipo. Hacen su tarea y no se preocupan de los problemas que puedan tener otras personas del grupo
  6. Reparto no equitativo de tareas. Algunas personas puede acabar haciendo mucho más trabajo que otras ([seguramente muy vinculado al problema 1, y agravado con 4 o con 5])
  7. Problemas de comunicación dentro del equipo
  8. Problema de socialización en el grupo (desponocimiento de las otras personas)

Y sospechan que los principales problemas que se pueden presentar cuando trabajen en una organización sean:

  1. Falta de implicación
  2. Presión de la persona que ocupa el mando para que el trabajo se cabe cada vez antes
  3. No tener claros los objetivos
  4. Crear subgrupos dentro del equipo y que funcionen sin comunicarse (de manera independiente y cada uno remando en una dirección diferente o haciendo tareas repetidas mientras otras se quedan sin hacer)
  5. Conflictos originados por una relación personal entre personas integrantes de un mismo grupo

A partir de esta información me gustaría responder a estas preguntas:

  1. ¿Son similares los problemas a los que se enfrentan como estudiantes que a los que se enfrentarán como profesionales en las organizaciones?
  2. ¿Qué dice la investigación previa sobre la prevalencia de estos problemas  o cómo resolverlos?
  3. ¿Cómo afecta el trabajo remoto a estos problemas? ¿Los aumenta, los mitiga, o simplemente no afecta ni en un sentido ni en otro?

 

#SINCOE #RRHH #GIOI #TEAMWORK #EvidenceBasedManagement #RemoteWork #TrabajoRemoto

 

 

¿Quo vadis Sexenios?

Deadline disaster cartoon scene Free Vector

Paper vector created by macrovector – www.freepik.com

Igual me equivoco. Mi sensación es que los sexenios actuales, al menos en el campo donde está mi área de conocimiento, están mandando este mensaje:

«Si no eres capaz de publicar en una revista de muy alto nivel (no que realices una investigación de muy alto nivel) 5 veces en 6 años (o en una de altísimo nivel 3 veces en 6 años), deja de investigar y dedícate solo a impartir docencia»

En otra entrada de mi blog explico que, en mi caso, impartir 32 créditos (320 horas de clase presencial) implican 1500 horas de trabajo. Obviamente esta estimación es si lo haces bien: te documentas; actualizas contenidos, casos y actividades; haces evaluación formativa dando feedback y feedforward a los estudiantes (bien individual, bien colectivamente); etc.
Con 32 créditos queda muy poco margen para hacer una investigación potente. O si lo prefieres, es probable que el esfuerzo de tu investigación drene tu docencia, que se resentirá drásticamente.

Esto me crea confusión y no tengo clara cuál es la finalidad o función de los sexenios en el panorama de la investigación en España. Siempre había creído que eran un complemento retributivo. Me basaba en las batallitas que me contaron los más viejos del lugar (aquellos que vivieron en primera persona la publicación del BOE que creaba los sexenios) y tras leer los BOE fundacionales de los sexenios.

Sin embargo la utilización que se hace de los mismos actualmente me parece que encaja más con un premio competitivo de excelencia. Obviamente, las personas solicitantes no compiten con otras solicitantes. No hay un cupo de sexenios a conceder en cada convocatoria. Pero sí se compite por los escasos huecos para colocar un artículo en una revista puntera. O por conseguir ser citado, que también son unos huecos limitados (algunas revistas, o algunos revisores, imponen límites al numero de citas. Yo creo que se equivocan, pero ahí están, entre las revistas que acumulan mayor número de citas). Esta competición es contra otras personas que investigan en todo el mundo y se basa en posiciones o ránking o estadística de distribución de citas por artículo.

Por lo tanto, se me ocurren dos posibles funciones que podrían estar en la base de los sexenios. Quizás haya más, pero ahora sólo se me ocurren estas dos (y como veréis es difícil que puedan cumplir ambas, porque el modo de ponerlos en marcha es radicalmente diferente dependiendo de la función que quieres que cumplan):

A) Sexenios es una herramienta de motivación del personal docente e investigador de las universidades españolas, y puede servir, además, como una comprobación rápida de que el trabajo de investigación de 6 años es «digno». En ese caso, es necesario: a) fijar el norte de qué es lo que se quiere potenciar y b) poner un conjunto de métricas alineadas con ese objetivo (lo que se considera un trabajo digno). En este caso, los indicadores deben ser objetivos, predecibles y fijos antes de que la persona haga la investigación. Si se cambian, deben mantenerse las dos «métricas» durante 6 años y usar la que más favorezca a la persona solicitante en ese periodo. El sistema debería ser transparente, sencillo de entender y totalmente automatizable. Se puede hacer un simulador pues, en esencia, la concesión es una decisión totalmente programada y no debe haber sorpresas, ni ambigüedades. Lo que se busca es motivar y crear pasión en un conjunto amplio de personas (miles en total, cientos en cada comisión). No se busca cabrearlas, ni frustarlas, ni ansiarlas. Si se usan evaluadores humanos con criterios subjetivos es sólo para valorar reclamaciones o para casos poco comunes.

B) Sexenios es una evaluación de la calidad de la investigación de la persona solicitante, con un criterio fundamentalmente de excelencia. Aquí encaja mucho una evaluación diversa y rica. En línea con DORA, usando un panel de expertos que pueden valorar, cualitativamente, CADA aportación de CADA solicitante y su historial en el periodo evaluado. Siempre será una evaluación impredecible (aunque sea transparente) porque se basa en juicios humanos (no algoritmos). No tengo claro si, el volumen de solicitudes permite este tipo de evaluación (no es solo que aumeten recursos, si lo hacen hay que alinear criterios de todavía más evaluadores para que no haya agravios comparativos). Tampoco sé si, en este caso B, sería aceptable establecer las métricas y los niveles «a posteriori» (cambiarlos cuando la persona solicitante ya ha realizado su investigación). Desde luego, sera mucho menos dañino que en el caso A) (motivación). Porque se asume que la excelencia es una competición con unas expectativas diferentes a la de la motivación de la fuerza laboral.

Como localizar el impacto relativo de un articulo científico (medido como citas)

En primer lugar, me gustaría aclarar que el impacto de un articulo mucho más que medir sus citas en un determinado proveedor de servicios de indexación de revistas científicas. Lo que pasa es que contar las citas es sencillo (si te conformas con los datos que te proporciona Clarivat/WOS, Scopus o Google Scholar), lo que no quiere decir que sea relevante, ni sea «verdadero» impacto. Es la versión de impacto más sencilla y, a veces, la única que podemos calcular de manera práctica.

Con esto en mente, la pregunta que intentare resolver en esta entrada es ¿cómo saber si un artículo científico publicado es más citado o menos que los artículos similares?

De nuevo tengo que hacer una suposición que no es menos drástica y no genera menos sesgo que la de asumir que impacto = citas. Se trata de asumir que un artículo es similar si:

  1. Se ha publicado el mismo año. Aunque no es lo mismo que se publique en enero, que en diciembre, o que haya estado años en «advanced online» sin fecha definitiva de publicación… Sobre todo cuando la fecha de publicación es reciente, porque aún teniendo el mismo año de publicación un articulo puede estar expuesto al circuito de citas el doble, triple o incluso cuatro veces más de tiempo que otro (de modo que muy similares no serían)
  2. Son del mismo «tema» o «área de conocimiento». La idea de fondo es que hay áreas o comunidades científicas donde los circuitos de maduración de citas (el tiempo habitual que se tarda en ser citado, el numero habitual de citas recibidas y el tiempo que tardas en pasar a ser difícilmente citable por «antiguo») es muy diferente. El problema es que tanto Clarivate/WOS como Scopus tienen un método un tanto cuestionable (no solo por su poca transparencia, sino por sus patentes fallos de clasificación) de decidir en qué área colocar un articulo y, por lo tanto, establecer el conjunto de artículos similares con el que comparar

Por último, debemos asumir que disponemos de acceso a plataformas de pago que hacen el trabajo por nosotros (no conozco ningún servicio gratuito que permita realizar lo que voy a comentar en esta entrada). O pagas una suscripción a Clarivate/WOS o a Scopus, o la paga la institución para la que trabajas. Pero, al menos con mis conocimientos, esto no lo puedes hacer sin rascarte el bolsillo o que alguien se lo haya rascado por ti (o hayas pirateado o usado materiales al margen de las condiciones de uso exclusivo que permiten Clarivate/WOS o Scopus).

En este contexto, y solo en este contexto, es posible dar algunas respuestas a la pregunta.

Advertencia: el procedimiento, enlaces y pantallazos se corresponden a cómo resolver esto en octubre de 2021. Como las plataformas cambian con relativa frecuencia, es posible que las rutas o ubicación de las opciones sea completamente diferente el día que vayas a intentar hacerlo tu.

Primera Opción: las herramientas de indices de impacto que proporciona la suscripción de recursos científicos de FECYT

Accedes a la página principal (si no tienes suscripción, no podrás pasar de ese paso): https://www.recursoscientificos.fecyt.es/

y eliges la opción «indices de impacto» en los botones negros grandotes

y en la nueva página eliges el sub-menú «Tablas de citas mundiales» (botón en gris en la parte superior)

En el momento de redactar la entrada si buscas con google «tablas de citas mundiales» los primeros resultados de la búsqueda apuntan directamente a ellas.

Estas tablas se actualizan una vez al año (sobre noviembre o diciembre) y sólo están disponibles hasta 3 años antes del momento en el que buscas (pues se considera que con menos tiempo, la posibilidad de recibir citas es muy escaso y las tablas no tendrían mucha utilidad, ni fiabilidad). En cualquier caso, si un articulo publicado hace menos de 3 años ya mejora los indicadores de los que aparecían hace 3 años, es muy buena señal de que tiene un «impacto en citas» que se podría considerar excelente (o al menos superior a la media de articulo que llevan mucho mas tiempo en el «expositor»).

Ten en cuenta de que hay tablas para WOS y tablas para Scopus. Porque cada una de ellas se crea con una fuente de datos diferente y con una metodología de agrupación por area temática muy, muy, pero que muy diferente (no te comparas con el mismo conjunto de artículos en WOS que en SCOPUS). Podréis preguntarme «si me salen datos muy diferentes, ¿cual sería el más adecuado para usar en «mi área»». La respuesta sencilla, es: si miras las citas en WOS usa la tabla de WOS y si las miras en Scopus, pues la de Scopus. Pero si lo que te pasa es que cuando comparas WOS te sale muy bien y cuando comparas Scopus te sale muy mal (que tienes menos citas que el promedio), o al revés. Entonces no me atrevo a dar una respuesta más allá del depende. Lo que si es cierto (eso es un dato objetivo) que, la cobertura de revistas del área de ciencias sociales y en especial en los campos relacionados con la administración de empresa (management), a fecha de 2021, es mucho mayor y mejor en Scopus que en WOS. Además, en scopus hay una división mucho más específica por sub-áreas dentro del campo de administración de empresas (Marin-Garcia y Alfalla-Luque, 2018). Pero «hasta aquí puedo leer». Que haya más cobertura de revistas o más clasificaciones no quiere decir que las agrupe mejor (quizás las agrupe igual de mal que WOS). Resolver esto daría para un artículo científico (animo a quien quiera a que lo haga y si no sabéis a qué revisa mandarlo, en JIEM o en WPOM estaríamos encantados de poder evaluarlo).

Además en cada una de las dos situaciones anteriores tienes dos tablas. En la primera tienes los «descriptivos» de las citas promedio recibidas por los artículos científicos publicados en determinados años, en cada área. En la segunda, para calcular el promedio se han incorporado también «conference proceedings«. Yo, personalmente, creo que solo tiene sentido la primera… pero si alguien se ha tomado la molestia de hacer dos tablas por algo será (como decía «La Bombi» en los casposos años del 1-2-3).

Esta es la información que proporcionan las tablas de citas. Tangase en cuenta que Dirección de Operaciones (Operations Management) no existe como campo, de modo que supongo que hay que considerar los «miscellaneous de business» o business en general como área de comparación. Pero oye, igual a otras personas les parece mejor otra cosa

Vaya… quizás tendría que haber pedido permiso a Elsevier para publicar esta foto.. Bueno, cuando tenga tiempo me dedico a escribir un párrafo que resuma algo de la información y pixelo esta tabla
Si, WOS, con vosotros también lo haré… pero cuando tenga tiempo.

Segunda Opción: las métricas a nivel de articulo que proporcionan WOS o Scopus

Scopus lleva años (al menos desde 2018) publicando el «citation benchmarking» y el  «field-weighted citation impact» , que se definen y calculan como se muestra en la figura (si quieres más información: Learn more about Article metrics in Scopus).

Definición del F-W citation impact de Scopus
Citation benchmarking

Esta información aparece en la página del articulo (cuando pinchas sobre el título del artículo en los resultados de una búsqueda para que te muestre la información completa). Hace un tiempo era en la parte lateral derecha, ahora está en la parte inferior de la páginas después del resumen… dentro de un tiempo estará en otro sitio.

Junto con el  Field-Weighted citation impact (recordad, 1 es que está mas citado de lo esperado) se puede ver el Citation Benchmarking: percentil correspondiente al número de citas del articulo cuando se compara con todos los articulos de scopus publicados en la misma fecha. En la figura, 6 citas en 2016 significa estar en el percentil 59%, lo que puede considerarse un impacto en citas notable dentro de Scopus.

he resaltado en azul oscuro la zona donde se ve la información

WOS se ha incorporado recientemente (2020) a las métricas a nivel de articulo con su «beamplot«. En estos momentos para acceder a estas métricas debes entrar en la página «personal» de cada investigador (Author Profile). Es decir, que no ves esta métrica cuando entras en la información del artículo. Tienes que localizar primero al autor-a

y luego pinchas en el vínculo que hay en su nombre

tras pulsar el enlace a un autor-a, te lleva a su página de perfil

y en la página que se abre con el perfil del autor, te desplazas hacia abajo hasta que encuentres el «Author Impact Beamplot Summary) (insisto, ahora está en la parte de abajo de la página, tras todas las citas de lo publicado. Pero pueden colocarlo en cualquier otro sitio en el futuro). Para ver los detalles, pulsa el botón «View full beamplot»

Los datos que se presentan son los mejores percentiles de citas de cada articulo comparando con artículos similares (si está en varias categorías se muestra el mejor). Más información en http://webofscience.help.clarivate.com/en-us/Content/author-record.html#Web

(solo se incluyen artículos del tipo «article» o «review» data papers u otras contribuciones científicas son ignoradas, de momento, en el «beamplot».

Una forma más rápida puede ser velo desde la cuenta de Publons (si te has creado una cuenta de estas. Es un producto derivado de WOS que promocionaron mucho hace dos años)

Resolvamos un caso práctico

¿Qué posición respecto a impacto en citas tendría este artículo?
Garcia-Sabater, J. J., & Marin-Garcia, J. A. (2011). Can we still talk about continuous improvement? Rethinking enablers and inhibitors for successful implementation. International Journal of Technology Management, 55(1/2), 28-42.

(datos recogidos el 29 de septimbre de 2021)

Opción 1:
36 citas Scopus; 36 citas en WOS

El artículo es de 2011, y la temática es de dirección de operaciones, de modo que voy a la tabla de citas de Scopus en la categoría de miscelánea dentro de Business y management, el promedio de citas para artículos de ese año son 13,8. Como el articulo tiene 36 es citado más del doble que el promedio. Si voy a la de WOS en Business es 18.16 y en management es 20,6, de nuevo 30 citas en WOS es casi el doble que el promedio de artículos de ese año en la categoría.

Opción 2:

WOS Beamplot: Busco el perfil de uno de los autores (en este caso el segundo autor), Me desplazo hasta la parte de la página donde esté el gráfico «beamplot» y pulsa el botón «view full beamplot»

y si paso el ratón por encima de uno de los artículos puedo ver los detalles. En este caso voy pasando por todos los de 2011 hasta encontrar el que me interesa. 36 citas en WOS para éste lo sitúa en el percentil 90

Scopus FWCI: busco el artículo en Scopus. En la pagina de detalle abro el campo de «metrics» y las 36 citas para un articulo de 2011 indica un percentil 45% y el FWCI es de 0.26 (que está alejado de 1).

Puede llamar la atención la diferencia de resultados (sobre todo cuando se compara con la tabla de citas de Scopus, que es la misma fuente de datos). Pero no olvidemos que:

The FWCI is the ratio of the document’s citations to the average number of citations received by all similar documents over a three-year window

Seguramente el FWCI no es un buen indicador para articulos antiguos (que seguramente ya no se citan en los últimos tres años, que parece que es la ventana que consideran).

Referencias:

Zapatero a tus zapatos. En contra del escrache a revistas académicas

"Un motín es una cosa muy fea" (el Jovencito Frankenstein) y el monstruo no era tan malo, eran más bien los miedos de los aldeanos.

Me ha costado elegir el título de la entrada y espero que nadie se sienta molesto. Pero creo que es lo que mejor representa la situación. Creo, también, que aporta el camino para solucionarlo: si crees que una revista académica, de las que están listadas en Web Of Science (WOS) o Scopus, está incurriendo en malas prácticas editoriales/científicas. En lugar de participar en un linchamiento, usa los procedimientos establecidos para denunciarlo:

  • En WOS: manda un correo indicando el problema, la revista y su ISSN a Product Support <wosg.support@clarivate.com>
  • En Scopus: contacta con title re-evaluation team re-evaluation@scopus.com

El origen de esta entrada son todos los corrillos de sospechas vertidas sobre una revista académica y, por extensión, a la editorial que la publica. Son comentarios del tipo «conozco a alguien en ANECA que me ha dicho que la revista **** es predatory (a pesar de estar en Q* en JCR). Te aconsejo que no publiques en esa revista». Casi siempre, ese comentario suele ir acompañado de la respuesta de otra persona que dice algo parecido a: «si, si, yo conozco a alguien que pago por publicar en esa revista» y se va liando la cosa.

En el fondo, cuando observo todo esto desde fuera, me da la sensación de que es la misma forma como se difunden los bulos o «fake-news» y lo que me preocupa es que haya gente académica enganchada en esta actividad.

Voy a empezar con una frase que igual no me gana amistades y quizás consiga que alguien se moleste y no siga leyendo la entrada (una lástima porque luego explico detalles que pueden ser interesantes):

Que lleves años investigando y publicando no te convierte en experto en evaluación de la calidad editorial de las revistas (yo no lo soy tampoco, por eso creo que hay que ser muy prudentes antes de poner una etiqueta negativa a una revista)

Por suerte, o por desgracia, existen expertos. De hecho, los sistemas de evaluación de la calidad de la investigación en España han abdicado de esa tarea y la han delegado hace años en esos expertos. Exacto. Lo has adivinado. Me refiero a Clarivate-WOS con su JCR y a Scopus, con su «cite-score» o su primo SJR (hay algunos más pero en España no se consideran apenas).

Estas dos plataformas se han convertido en el referente de lo que es una revista académica «con calidad editorial». Normalmente se confunde la calidad editorial de la revista con la calidad científica de los artículos que publica. Se confunde porque tienen cierta relación… Pero son dos cosas distintas. Y casi siempre se confunde calidad científica de un artículo con número de citas recibida (de nuevo, son cosas que pueden estar relacionadas, pero no son lo mismo).

Para WOS y para Scopus, la calidad académica de la revista está clara: se trata de cumplir una serie de criterios, que son los que sus expertos tienen en cuenta para indexar una revista en sus bases, o para expulsarte si dejas de cumplirlos. Puedes consultar la lista de criterios en las tablas 1 y 2 de https://polipapers.upv.es/index.php/WPOM/article/view/8989/9910 o aquí. https://www.elsevier.com/solutions/scopus/how-scopus-works/content/content-policy-and-selection


Por lo tanto, primera conclusión:

Si una revista está en uno de esos listados es una garantía de que es una revista «decente» (estar en dos, significa que, además tienes dinero o tiempo para toda la burocracia que exige estar en esos listados)

Obviamente las revistas pueden evolucionar, para bien o para mal. Las personas que actúan como editoras de la revista pueden tomar decisiones que no coinciden con las normas publicadas de la revista (las que determinan su calidad editorial). A veces son errores esporádicos y aleatorios. Eso no representa ningún problema. Solo cuando estas desviaciones son sistemáticas, estamos ante un caso de posible «fraude académico» y eso se puede (y se debe) denunciar para que los servicios de indexación (Scopus y WOS) pueda actuar y sacarla del listado si fuese necesario.

Si en lugar de denunciarlo a WOS o a Scopus, nos dedicamos a criticar en corrillos y hacer de «la vieja del visillo», creo que no hacemos ningún favor a la ciencia. La denuncia la debe iniciar la persona que haya sufrido la situación o las que tengan pruebas fehacientes de la mala praxis.

Segunda conclusión:


Por muy diligentes que sean WOS y Scopus, limpiar sus bases les cuesta cierto tiempo (quizás un par de años desde que una revista inicia un camino equivocado hasta que es expulsada). Entre otras cosas, porque primero deberían advertir y, solo si no corrigen la trayectoria, expulsar a la revista.

Pero los pobres mortales que nos dedicamos a investigar y difundir los resultados de nuestra investigación, o las comisiones de evaluación (que están formadas por un grupo de esos mismos mortales), no tenemos las herramientas para estar al tanto de todo esto y solo podemos fiarnos de lo que hacen los expertos (WOS y Scopus). Porque los hemos considerado como tales. Nadie nos obligaba, pero decidimos otorgar todo el poder a la posición de cuartiles de las revistas (porque es cómodo y barato y sencillo y cuantificable y objetivo). Por lo tanto, ahora hemos de ser coherentes y transparentes.

Tercera conclusión:

No se pueden aplicar penalizaciones con efectos retroactivos. Si dices que un Q1 es una revista buena, no puedes luego decir, que bueno, depende de qué Q1, porque ahora voy a ser yo el experto, unas veces el experto es WOS/Scopus y otras yo… según me convenga y con efectos retroactivos. Eso, a mi, no parece muy transparente.

Pero ¿qué es una mala praxis editorial? pues la verdad es que no hay muchas (http://redc.revistas.csic.es/index.php/redc/article/view/868/1172). normalmente los problemas de mala praxis son más problemas de los propios autores-as que de los editores-as de las revisas.

Por eso voy a centrarme en cosas que suelen criticarse pero NO son malas prácticas. Aunque nos extrañen, sean «novedosas», o no nos gusten, o no las compartamos, o creamos que los fondos públicos de investigación no deberían ir a parar a los bolsillos de editoriales que se están haciendo un gran negocio con la publicación científica (como Elsevier, SAGE, MDPI, Frontiers y otras).

  • Publicar muchos artículos al año: eso no es ni bueno ni malo. Debes tener recursos para gestionar el volumen, solo eso. Si cuentas con suficientes personas como para hacer un filtrado y una buena revisión de todo ese volumen, no hay nada que objetar (quizás envidiar cómo lo consigues). Hay revistas con muy buena imagen científica que publican miles de artículos al año (y nadie se cuestiona su calidad). En el fondo si publican mucho y están altas en los indices de impacto es que hay mucha (muchísima) gente que cita sus trabajos, de modo que: a) tan malos no son los artículos que publica; b) el número de citas no sirve para valorar la calidad de un trabajo de investigación; c) están haciendo trampas para inflar las citas (solo en este caso es denunciable y quien tenga una evidencia, que lo denuncie cuanto antes).
  • Hacer muchos «Special Issues»: en principio es lo mismo que el punto anterior, con un pequeño matiz. Los números regulares los filtras con el equipo editorial de la revista. Para los números especiales fichas a gente que va a colaborar de manera puntual. Si el «fichaje» se hace con criterio y se elije a personas que se van a implicar y tienen buen conocimiento del tema del número especial, no debería constituir ningún problema (más bien todo lo contrario). De modo que si la revista puede hacer una buena selección de editores-as y puede gestionar ese volumen extra de trabajo, estamos con en el primer punto. Nada que objetar.
  • Cobrar APC (Article Processing Charges) a los autores: mantener una revista tiene un coste. O lo paga una asociación o universidad, o lo paga el lector, o lo paga el autor. No le veo muchas más opciones. ¿Que algunas tasas de APC están o sobrepasan el límite de la usura? Si, estoy de acuerdo. Pero eso no significa que no tengan calidad (editorial o científica de sus trabajos), solo significa que alguien quiere aprovechar la situación para hacer dinero con un modelo de negocio legal (nos guste o no).
  • Cerrar el proceso editorial rápido: esto no es ningún problema. Al revés, es lo que todos desearíamos: que el proceso editorial sea lo más rápido posible sin perder su rigor. Si haces un análisis de tiempos, procesar un artículo probablemente no requiere de más de 15-20 horas de tiempo neto. Repartidas entre 4-6 personas diferentes que, en algunas etapas, pueden trabajar en paralelo. El problema es cuánto tardas en liberar el tiempo necesario para ocuparte del articulo. Tener el articulo 3 semanas en tu bandeja de entrada no le aporta ningún valor al proceso de revisión ;-).
  • Hacer un marketing «agresivo» de la revista (mandar correos a profesionales que publican sobre los temas de la revista): que nos llenen la bandeja de entrada con correos invitándonos a mandar artículos o leer sus publicaciones puede no gustarnos… Pero es lo que hay. Yo, al menos, prefiero que el SPAM de mi correo sea información sobre números especiales de temas sobre los que publico o sobre la tabla de contenidos de una revista que suelo leer, que el de la señora nigeriana que me informa de que acaban de nombrarme heredero de un millón de dólares.
  • Que se les cuelen algunos artículos flojos: si publicas 3.000 artículos al año, es normal que algunos de ellos sean flojitos o incluso que alguno tenga problemas serios (si publicas 10 al año es raro que te pase, pero cuando subes exponencialmente, aunque tengan un 99% de acierto en el filtro, si los buscas, vas a poder encontrar artículos con problemas). Lo importante no es que encuentres uno, sino el % que representan los problemáticos sobre todo lo que gestiona la revista.
  • Que el editor-a jefe-a tenga una opinión diferente de uno-a de los revisores-as: salvo que las normas de la revista digan que el editor hará caso a la decisión del revisor más negativo, no es una mala praxis que la persona que ocupa el puesto de editora jefa de la revista haga valer su criterio cuando sea necesario.

Para terminar, las críticas a estas revisas siempre se basan en una experiencia personal: «yo vi (o me contaron) una cosa fea una vez, por lo tanto, no solo la revista, sino también la editorial y todas las revisas que publican son una mierda». Lo voy a contrarrestar con el mismo argumento: yo he visto, no solo una, sino dos cosas muy positivas en una revista de la editorial MDPI, por lo tanto la revista, la editorial y todas sus revisas son fantástica. Aquí os relato mi experiencia:

Como autor en un numero especial. La editora jefa era una académica de rigor indiscutible. También he visto algunos nombres conocidos y respetados al frente de otros números especiales. Recibo 4 revisiones muy completas y muy exigentes. No nos pusieron fácil levantar el «major revision». Pero lo conseguimos tras muchas horas de trabajo. Los comentarios eran realmente de expertos que se habían tomado muy en serio la revisión. Todo el proceso fue muy rápido… de hecho tuvimos que pedir ampliación para envío de la respuesta. Es cierto que la revista hace negocio cobrando una cantidad alta de euros en caso de aceptar la publicación, pero es tan alta como otras muchas revistas de SAGE o de Elsevier y el servicio al autor es mucho mejor.

Como editor de un numero especial. Las decisiones editoriales son cosa mía (he decidido rechazar más del 50% de los envíos y no me han puesto ninguna pega). Además, la ayuda a selección de revisores es muy buena, son investigadores afines a los temas y tras aceptar la revisión suelen hacer revisiones muy exhaustivas y en plazo. A veces intentan asumir el rol de editor más que de revisor (cosa que pasa muchas veces con otras revistas TOP). Y un detalle que no es banal. Soy editor del numero especial y el articulo que mando ha sido revisado por 4 revisores y ha sido gestionado por otro editor de la revista (no se quién es el editor, ni quien me hace las revisiones. Todo el proceso es ciego para mi). En estos momentos lo tengo en segunda revisión porque me han metido bastante caña. Esto no pasa con los «special issues» de ninguna de las otras revistas Q1 que conozco. Allí las editoriales pasan sin filtro… pues aquí las filtran como si fuese un artículo más. De modo que son mucho más exigentes que otras.

 

PD: os enlazo una de las reflexiones más lúcidas y mejor documentadas que he econtrado sobre el tema https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/

 

El público objetivo de la divulgación científica debería ser más amplio de lo que habitualmente pensamos

Mientras leía este articulo pensaba que acaban de identificar al publico objetivo de los manipuladores, populistas y anti-ciencia. El reto es como se puede trabajar con esas poblaciones desde la  Práctica Basada en Evidencia (evidence-based) para contrarrestar las campañas que están recibiendo y seguirán recibiendo desde otras fuentes.
Howley, P., Waqas, M., Moro, M., Delaney, L., & Heron, T. (2020). It’s Not All about the Economy Stupid! Immigration and Subjective Well-Being in England. Work, Employment and Society, 34(5), 919–936. https://doi.org/10.1177/0950017019866643«
 
Un resumen de la evidencia:
«much of the research that has been done in the UK suggests that immigration has had little, if any, negative impact on the labour market outcomes of natives and this finding is mirrored in much of the research outside the UK (Card, 2005; Dustmann et al., 2013; Lemos and Portes, 2013).»
…..
«the available evidence suggests that migrants are typically younger and healthier, and in turn more likely to be at work (hence less likely to access social services) than the native UK population. In effect, it is likely that they not only pay their own way, but also partly subsidise the costs of public services for others (Dustmann et al., 2010). «
 
Los mensajes en las redes
«In public discourse, immigration is also often associated with increased burdens on taxpayers through rising health care costs and demand for social services. «
«The effect of this influx of new migrants on the UK economy has been the subject of intense political debate, and was one of the dominant issues in the recent UK referendum on EU membership.»
 
Y el efecto que producen (qué población es más vulnerable a los mensajes que a la evidencia)
 
«Considering the population as a whole (main effects), we find using both a fixed-effects (following the same individuals over time) and instrumental variable specification (quasi-natural experiment) that net inflows of foreign-born individuals into local areas are associated with negative (albeit relatively small) subjective well-being impacts for natives. These negative impacts are much more notable, however, for certain groups, such as relatively older individuals (60+), the unemployed, those with below-average household incomes and finally those without any formal educational qualifications.»
 
#evidencebased

Call for papers: High Performance Work Practices and Kaizen: How Sustainable are They?

Ya está abierto el Call for Papers para el número especial del que soy editor jefe: «High Performance Work Practices and Kaizen: How Sustainable are They?» en la revista International Journal of Environmental Research and Public Health (ISSN 1660-4601). La revista es Q1 en JCR en la categoría PUBLIC, ENVIRONMENTAL & OCCUPATIONAL HEALTH – SSCI  y Q1 en citescore de scopus, en la categoria Public Health, Environmental and Occupational Health.

Un pocas palabras, el tema del número especial es:

This Special Issue addresses the sustainability of high-performance work practices or kaizen, from the point of view of their long-term effects on organizations, the environment and workers’ well-being. In this way, we hope to present a set of contributions that will enable development (people, planet, and profit) to be addressed from different perspectives.

Pero convine que miréis la información detallada en: https://www.mdpi.com/journal/ijerph/special_issues/Work_Kaizen     

En la pagina web no aparecen la lista de referencias citadas, pero puedes consultarla aqui:

  • Alfalla-Luque, R., Marin-Garcia, J. A., & Medina-López, C. (2015). An analysis of the direct and mediated effects of employee commitment and supply chain integration on organisational performance. International Journal of Production Economics, 162(April), 242–257. doi:http://dx.doi.org/10.1016/j.ijpe.2014.07.004
  • Andersén, J., & Andersén, A. (2019). Are high-performance work systems (hpws) appreciated by everyone? The role of management position and gender on the relationship between hpws and affective commitment. Employee Relations, 41(5), 1046-1064. doi:10.1108/ER-03-2018-0080
  • Caniëls, M. C. J., & Veld, M. (2019). Employee ambidexterity, high performance work systems and innovative work behaviour: How much balance do we need? International Journal of Human Resource Management, 30(4), 565-585. doi:10.1080/09585192.2016.1216881
  • Chang, P. C., Wu, T., & Liu, C. L. (2018). Do high-performance work systems really satisfy employees? Evidence from china. Sustainability (Switzerland), 10(10). doi:10.3390/su10103360
  • Ciravegna Martins da Fonseca, L. M. (2015). Iso 14001:2015: An improved tool for sustainability. Journal of Industrial Engineering and Management, 8(1), 37-50. Doi: 10.3926/jiem.1298
  • Daily B. F., & Huang S. (2001). Achieving sustainability through attention to human resource factors in environmental management. International Journal of Operations and Production Management, 21(12), 1539-1552. Doi: 10.1108/01443570110410892
  • Dania, W., Xing, K., & Amer, Y. (2018). Collaboration behavioural factors for sustainable agri-food supply chains: A systematic review. Journal of Cleaner Production, 186, 851-864. Doi: 10.1016/j.jclepro.2018.03.148
  • Fagnani, E., & Guimarães, J. (2017). Waste management plan for higher education institutions in developing countries: The continuous improvement cycle model. Journal of Cleaner Production, 147, 108-118. Doi: 10.1016/j.jclepro.2017.01.080
  • Fresner, J. (1998). Starting continuous improvement with a cleaner production assessment in an Austrian textile mill. Journal of Cleaner Production, 6(2), 85-91.
  • Gollan, P. J., Kalfa, S., Agarwal, R., Green, R., & Randhawa, K. (2014). Lean manufacturing as a high-performance work system: The case of cochlear. International Journal of Production Research, 52(21), 6434-6447. doi:10.1080/00207543.2014.940430
  • Govindarajulu, N., & Daily, B. F. (2004). Motivating employees for environmental improvement. Industrial Management and Data Systems, 104(4), 364-72.
  • Han, J., Jian-Min, S., & Wang, H. L. (2019). Do high performance work systems generate negative effects? How and when? Human Resource Management Review. doi:10.1016/j.hrmr.2019.100699
  • Jabbour, Ch. J., Santos F., & Nagano, M. (2008). Environmental management system and human resource practices: is there a link between them in four Brazilian companies? Journal of Cleaner Production, 16(17), 1922-1925. Doi: 10.1016/j.jclepro.2008.02.004
  • Karadas, G., & Karatepe, O. M. (2019). Unraveling the black box: The linkage between high-performance work systems and employee outcomes. Employee Relations, 41(1), 67-83. doi:10.1108/ER-04-2017-0084
  • Luu, T. (2019). Promoting logistics performance in vietnam-based manufacturing firms: The role of service-oriented high-performance work systems and mediation mechanisms. International Journal of Physical Distribution and Logistics Management, 49(1), 52-74. doi:10.1108/IJPDLM-07-2017-0238
  • Miao, R., & Cao, Y. (2019). High-performance work system, work well-being, and employee creativity: Cross-level moderating role of transformational leadership. International Journal of Environmental Research and Public Health, 16(9). doi:10.3390/ijerph16091640
  • Renwick, D.W., Redman, T., & Maguire, S. (2013). Green human resource management: A review and research agenda. International Journal of Management Reviews, 15(1), 1-14.
  • Sanchez-Ruiz, L., Marin-Garcia, J. A., & Blanco, B. (2018). Protocol: A meta-review on continuous improvement to know the state of this research field. WPOM-Working Papers on Operations Management, 9(2). doi:10.4995/wpom.v9i2.10752
  • Siddique, M., Procter, S., & Gittell, J. H. (2019). The role of relational coordination in the relationship between high-performance work systems (hpws) and organizational performance. Journal of Organizational Effectiveness, 6(4), 246-266. doi:10.1108/JOEPP-04-2018-0029
  • Singh, S., Ramakrishna, S., & Gupta, M. (2017). Towards zero waste manufacturing: A multidisciplinary review. Journal of Cleaner Production, 168, 1230-1243. Doi: 10.1016/j.jclepro.2017.09.108
  • Tariq, S., Ali Jan, F., & Ahmad, M. S. (2016). Green employee empowerment: A systematic literature review on state-of-art in green human resource management. Quality & Quantity, 50, 237–269. Doi: 10.1007/s11135-014-0146-0
  • Vieira L., & Amaral, F. (2016). Barriers and strategies applying cleaner production: A systematic review. Journal of Cleaner Production, 113, 5-16. Doi: 10.1016/j.jclepro.2015.11.034
  • Wang, Z., Xing, L., & Zhang, Y. (2019). Do high-performance work systems harm employees’ health? An investigation of service-oriented hpws in the chinese healthcare sector. International Journal of Human Resource Management. doi:10.1080/09585192.2019.1579254
  • Way, S. (2002). High performance work systems and intermediate indicators of firm performance within the us small business sector. Journal of Management, 28, 765-785.
  • World Commission on Environment and Development. (1987). Our common future (brundtland report): United Nations
  • Zhou, Y., Fan, X., & Son, J. (2019). How and when matter: Exploring the interaction effects of high-performance work systems, employee participation, and human capital on organizational innovation. Human resource management, 58(3), 253-268. doi:10.1002/hrm.21950

https://www.frontiersin.org/articles/10.3389/fpsyg.2019.02368/full

Just published Bonavia, T., & Marin-Garcia, J. A. (2019). Spanish validation of the leader empowering behavior questionnaire (lebq). Frontiers in Psychology, 10(2368). doi:10.3389/fpsyg.2019.02368
#HRM #ContinuousImprovement #TalentManagement

The concept of empowering leadership (EL) has attracted widespread academic and practical interest and different questionnaires have been developed to measure it. However, there are no instruments to measure EL in the Spanish language. This article presents the translation, adaptation, and validation of a scale to measure this construct. In addition, it analyzes the relationship between managers’ EL and employees’ job satisfaction. In turn, the study analyzes whether employees who participate in a greater number of continuous improvement (CI) programs have supervisors who favor more empowering behaviors. A total of 739 participants with various occupations from different companies that have implemented CI processes filled out the Spanish version of the Leader Empowering Behavior Questionnaire (LEBQ-sp). Two different subsamples were used to test the relationships between the LEBQ and job satisfaction and CI, by means of Pearson’s correlation coefficient and analysis of variance, making it possible to provide evidence about the validity of the Spanish LEBQ. The confirmatory factor analysis supported the original structure of the six-factor model. The factors show a high level of internal consistency, as well as sufficient convergent and discriminant validity. Moreover, the results show that the more companies invest in formal CI programs, the more important it is for their leaders to adapt their behavior by displaying more EL. The LEBQ-sp is a valid and reliable instrument for use in research and a useful tool for applied purposes in the context of Spanish-speaking countries.

¿Qué han investigado los académicos sobre comunicación interna entre 2013 y 2018?

(ver información ampliada en  https://www.linkedin.com/pulse/qu%25C3%25A9-han-investigado-los-acad%25C3%25A9micos-sobre-comunicaci%25C3%25B3n-marin-garcia)

Estrategia de búsqueda:
"internal communication" en titulo, resumen o palabras clave
de revistas  indexadas en SCOPUS
Publicado entre 2013 y 2018
en revistas catalogadas en categoria de empresa o economía
255 resultados
Tras filtro manual, 55 seleccionadas

Tras leer los resúmenes, parece que pocas hablan de herramientas concretas. He hecho un mapa conceptual de los contenidos aparentes de los 55 artículos (no los he leído aún, de modo que quizás mi mapa no represente adecuadamente los contenidos).

Respecto a herramientas, la investigación actual se centra en «social media» y la vinculan como herramienta de marketing interno (como una analogía a las capacidades de social media como herramienta de marketing externo). También se investiga sobre los resultados de la comunicación interna, pero parece que suelen abordarla como un todo global y no analizar el efecto concreto de una herramienta específica. Un tercer bloque de investigación se centra en qué herramientas serían más eficientes en contextos de crisis (o cambio o inestabilidad), y qué función puede cumplir en ese contexto. Sin duda esto se debe al pasado reciente de la crisis, pero quizás siga siendo un tema interesante en algunos sectores, donde la crisis dejó un entorno marcado por la incertidumbre o la inestabilidad.

#EvidenceBased #HRM

Análisis preliminar de las estructuras organizativas que facilitan la mejora continua

 

A través de nuestra investigación previa (ver referencias al final) hemos identificado 4 estructuras habituales en las empresas para fomentar la mejora continua:

  • Sistemas de sugerencias individuales (SB Suggestion Box)
  • Grupos permanentes de sugerencias (PST Permanent Suggestion Teams)
  • Grupos de mejora de corta duración (Ad-hoc temporary teams like kaizen events)
  • Grupos semi-autónomos (SDWT Self Directed Work Teams)

Hemos recogido datos de 856 operarios-as de empresas españolas o sud-americanas en el periodo 2009-2014. En el 78% de los casos existía alguna de las cuatro estructuras, pero solo el 65% las personas había participado activamente en alguna de ellas en los ultimos 12 meses.

Analizando la presencia y participación en cada una de las estructuras podemos comprobar que salvo en los grupos semi-autónomos, la implicación efectiva es bastante baja (la estructura está activa en la empresa, pero las personas no quieren -cuando es voluntaria- o no pueden participar -cuando es por invitación de los mandos el poder involucrarse en la estructura).

Nuestra intención es continuar con la investigación ampliando la muestra en el periodo 2014-2020 para analizar en cada uno de estos tipos de estructuras:

  • ¿Quienes y cuántos forman esos grupos?
  • ¿Qué actividades o responsabilidades realizan las personas de estos grupos?
  • ¿Qué resultados se obtienen en número de sugerencias implantadas?
  • ¿Qué formación reciben sus componentes?
  • ¿Cómo se recompensa la participación?
  • ¿Qué percepción tienen las personas de estos grupos? (cuando participan y cuando no participan en ellos)

Para saber más:

  • Juarez Tarraga, A., Marin-Garcia, J. A., & Santandreu-Mascarell, C. (2016). High involvement work programs (HIWP) measurement model validation and its capacity to predict perceived performance. Intangible Capital, 12(5), 1308-1400. doi:http://dx.doi.org/10.3926/ic.837
  • Juárez Tarrega, A., Marin-Garcia, J., & Santandreu-Mascarell, C. (2019). What are the main concerns of human resource managers in organizations? . Intangible Capital, In press.
  • Marin-Garcia, J. A., Juarez-Tarraga, A., & Santandreu-Mascarell, C. (2018). Kaizen philosophy: The keys of the permanent suggestion systems analyzed from the workers’ perspective. The TQM Journal, 30(4), 296-320. doi:https://doi.org/10.1108/TQM-12-2017-0176

#EvidenceBased #HRM #OperationsManagement #ContinuousImprovement