Claude, el mejor copiloto para investigación actualmente

Llevo 4 meses sometiendo a diferentes modelos/plataformas a casos de uso reales que me enfrento en mi tarea como investigador en el área de management. Cada vez que tengo que realizar una tarea susceptible de se copilotada por una Inteligencia Artificial generativa, la pruebo en las 6 alternativas (me he suscrito a la version «pro» de todas ellas para poder compararla en su «mejor versión»).

Mis casos de uso recorren tareas tan diversas como plantear investigaciones nuevas, dar respuesta a criticas de revisores/as a mis envíos a revistas, ver el estado actual de investigación, extraer definiciones contrastadas avaladas por citas «top», asesor metodológico para análisis complejos, soporte para código python o R para análisis, soporte para creación de páginas web para captura de datos, reformulación de transcripciones de entrevista, anonimización de nombres (entity recognition) en entrevistas o campos abiertos de encuestas,….

Además, los he usado varias veces para cada tarea (mínimo 5 o 6 veces, algunas más de 30 veces durante estos cuatro meses)

En las plataformas como perplexity, consensus, scite o scispace no he sido capaz de saber cual es el modelo que usan de base. Todas ellas lo han «fine-tuneado» pero no se sobre que modelo han partido.

En mi experiencia, el modelo por excelencia para soporte a tareas de investigación es Claude3.5-sonnet. Ninguna de las otras plataformas se acerca en rendimiento.

Puedes acceder desde Anthropic https://claude.ai/login?returnTo=%2F%3F o desde https://poe.com (mi favorita)

Pd: si no tienes dinero para pagar varias suscripciones, mi consejo es que lo inviertas en Poe.com (o, como segunda opción, en Anthropic). Si tines dinero para pagar varias, compra solo la de Poe.com y te gastas el resto tomando algún aperitivo con tus amigos/as.

Pd: mi ranking no puede extrapolarse para otros usos no relacionados con tareas de investigación. También podéis alegar que mis casos de uso son «muy particulares» y no os representan. Si no os convencen mis resultados, comprobadlo aplicando a vuestros casos de uso.

#IAgen #research 

 

Vista previa de la imagen

 

Visitas: 10

Flexibilidad y work-life balance

Aunque este articulo tiene otro enfoque y realmente habla de flexibilidad en general, me ha dado por pensar que si no planificamos las tareas el trabajo remoto igual arregla la vida de quien trabaja remoto, pero estresa y empeora la vida de los que están a la espera (o con la incertidumbre) de cuando estarán las cosas hechas.

Esto no es solo por teletrabajo (no penséis que me opongo el trabajo remoto, todo lo contrario), me la juego a que esa incertidumbre existe en el mismo momento que un proceso pasa de las tareas que hace una unidad a las que hace otra unidad distinta.

Mi intuición es que planificamos poco o nada las tareas en mi contexto cercano y el argumento que soporta mi intuición es que muy, muy pocas personas usan “gestores de tareas” (una simple tabla o Trello, Planner, Asana o similares) y las veces que he intentado convencer a alguien que los use en tareas de equipo, la resistencia ha sido brutal (nunca he conseguido que se usen). De modo que sospecho que, a nivel individual, donde es menos evidente su necesidad, se usarán todavía menos.

Mi sesgo es que dudo que alguien planifique si no divide el trabajo en tareas y asigna fechas y responsables para las mismas. Es un sesgo grande, porque realmente esto es «Programar» tareas y no «Planificar» tareas. Pero yo intuyo (de nuevo es intuición) que cuando el articulo habla de Planificar, realmente se quiere referir a Programar tareas.

(una visión de gestores de tareas: Algunas indicaciones para elegir el gestor de tareas que necesita el equipo remoto | 16/21 | UPV – YouTube)

Spoiled for Choice? When Work Flexibility Improves or Impairs Work–Life Outcomes

Brandon W. Smit https://orcid.org/0000-0003-0586-2091 bsmit@bentley.eduScott L. Boyar, and Carl P. Maertz, Jr.View all authors and affiliations

OnlineFirst

https://doi.org/10.1177/01492063231215018

Abstract

Work flexibility, which reflects employee discretion over where and/or when they complete tasks, has become a pervasive practice designed to reduce stress and enhance work–life balance. Despite its popularity, relatively little is known about its potential drawbacks. Through extending conservation of resources theory using dual process models of decision-making, we develop and test a theoretical model that demonstrates how and for whom perceived flexibility can improve or impair work-life outcomes. Across two studies utilizing panel data collected in three waves, we demonstrate that planning is a key mediating mechanism that allows individuals to translate the discretion afforded by flexibility into enhanced work-life balance and reduced exhaustion. Furthermore, we find that planning among those with a low future temporal focus, who are not inclined to plan by default, was strongly influenced by environmental discontinuities (e.g., disruptions to routines). Specifically, while flexibility increased planning when individuals experienced discontinuities, flexibility reduced planning among individuals in stable and familiar circumstances, which ultimately impaired work-life outcomes. Our model offers a useful theoretical lens to understand how individuals manage, and occasionally mismanage, the expanded discretion offered by flexibility.

Visitas: 59

¿Cómo vamos de entusiasmo en nuestras organizaciones?

Source: Global Indicator: Employee Engagement – Gallup

Los datos provienen de la engagement survey. La encuesta se pasa periódicamente y según la página web de Gallup, han recogido más de 2.7 millones de respuestas de personas que trabajan en más de 100.000 equipo en organizaciones más de 50 actividades económicas a lo largo de todo el mundo. La información que he encontrado sobre la “Gallup World Poll” (https://www.gallup.com/178667/gallup-world-poll-work.aspx) indica que el muestreo es aleatorio (por rutas estratificadas) entre personas mayores de 15 años que trabajan al menos ciertas horas para un empleador. Se realiza la entrevista de forma telefónica o cuestionario web autoadministrado en los países desarrollados y de manera presencial en los países emergentes. A entrevista dura unos 30 minutos y les preguntan muchas cosas además del Q12. Encada país se recogen entre 500 y 1000 respuestas (menos en Rusia y China que se recogen 2000). En esta ruta puedes encontrar detalles sobre la administración en cada país (https://www.gallup.com/services/177797/country-data-set-details.aspx)

Su instrumento de medida es el Q12. Que mide la percepción de empleados/as respecto a 12 ítems (yo prefiero medir el engagement con otra herramienta, y creo que esta mide un mezcladillo de cosas, no solo engagement. Pero no me voy a poner quisquilloso con esto). El engagement podríamos definirlo de forma rápida como la implicación y el entusiasmo de una persona empleada acerca de su trabajo y de la organización para la que trabaja.

Gallup clasifica a las personas empleadas en tres categorías usando una formula propia (y no compartida) que pondera los diferentes elementos y la adapta a diferentes circunstancias (de modo que no se puede reproducir sumando las personas que responden “totalmente de acuerdo” y “de acuerdo” a cada ítem). Estas tres categorías son:

  • Implicadas (tienen sus necesidades básicas cubiertas, tienen oportunidad de contribuir y sentido de pertenencia en la organización y encuentran oportunidades de aprender y crecer). Estas personas están muy motivadas y muestran entusiasmo. Son motores de rendimiento e innovación y ayudan a que la organización mejore y se desarrolle.
  • No Implicadas (están psicológicamente desapegados de su trabajo y de su organización). Son personas que dedican tiempo, pero no energía o pasión a su trabajo
  • Activamente desconectados (estas personas no solo están descontentas, sino que están resentidos. Sienten que sus necesidades no están siendo satisfechas y expresan su infelicidad abiertamente). Es muy probable que estas personas destrocen cada día (consciente o inconscientemente) el trabajo y el esfuerzo que realizan sus compañeros/as más comprometidos

La evolución global del indicador de engagement muestra que en los años recientes se ha estancado (o reducido el número de personas implicadas, y, al mismo tiempo ha crecido el de activamente desconectadas).

Mi reflexión. Si llegamos a un punto de equilibrio donde hay la misma cantidad de personas desconectado como implicadas, la resultante es cero… unas destrozan y anulan el esfuerzo de las otras. De modo que, poco a poco, las implicadas dejarán de estarlo porque verán que su esfuerzo no vale para nada… Quizás la única solución es mimar todo lo que puedas a las personas implicadas que tengas y ver si hay algo que puedes hacer con las desconectadas, o para evitar que las no implicadas se vayan al lado oscuro en masa.

 

Insisto en que no estoy seguro de que el Q12 mida exactamente engagement, o que solo engagment. Pero mida lo que mida, Europa es el lugar de mundo con menos de eso en 2021 (según los datos de Gallup).

Y si nos fijamos en los datos de satisfacción (solo he encontrado los datos de USA), se aprecia una gran bajada en las personas “extremadamente satisfechas con la organización para la que trabajan” en los últimos años. No obstante, hay que tener en cuenta que la gráfica está truncada y el “salto” da la impresión de ser más grande de lo que sería en realidad si el eje de ordenadas empezara en cero.

¿Estará pasando algo parecido en Europa? ¿Y en España?

¿Crees que sería interesante que analizáramos estos datos de Europa y desglosado por actividad económica, tipo de ocupación y sector público vs privado?

Visitas: 41

¿Cuánto fracasan las intervenciones de cambio organizativo? ¿Es verdad lo que te dicen las organizaciones o lo que publicamos los académicos?

Os comparto una reflexión derivada de un correo en el que me preguntaban el interés de una investigación acción que ha terminado de forma inesperada porque la organización donde se estaba trabajando no tenía una cultura tan innovadora ni tan guay como las personas directivas creían. El proceso de cambio les ha estallado en las narices porque su gente está realmente desmotivada y no ven un norte claro.

Yo creo que los casos de “fracaso” son super interesantes y me parece que casi no hay ninguno publicado. Esto es curioso porque circula por ahí la cita de que más del 80% de los cambios en las organizaciones no son tan exitosos a la primera como se diseñaron. Dudo de que se pueda hablar de 80% de fracaso, como les gusta decir a muchos “gurus”. Mas bien me inclino a pensar que, en el 80% de las veces, las cosas van más lentas, requieren más dinero o esfuerzo de lo planificado, o incluso dos o tres iteraciones no previstas para llegar a un puerto que se considere suficientemente bueno.

Sin embargo, no me viene a la cabeza ningún artículo de caso de “fracaso”. Creo que un proyecto interesante sería una revisión de literatura de casos de fracaso: cuántos hay comparando con los publicados de éxito, si esa proporción parece razonable a la luz de lo que vive el mundo “real”, y cuáles son las características que tienen en común los que fracasan pero que no comparten los de éxito.

Dudo que este proyecto, caso de hacerse, pueda concluir algo, porque no habrá muestra de artículos y porque éstos, estarán pobremente informados, haciendo casi imposible la extracción de información relevante. Pero serviría para poner sobre la mesa un tema relevante que creo que no estamos trabajando bien desde la academia -en Journal of industrial engineering and management, nos encantaría recibir ese trabajo sea cual fuera el resultado o conclusiones del estudio-).

#management #change

Los empresarios ejecutan su negocio en riesgo y errores de inversión

Visitas: 44

Numero de revistas en Scopus y en WOS

Tras acabar de impartir la sesión en un curso reciente, sobre como publicar investigación sobre aprendizaje en la universidad, me he quedado con el «runrun» al ver 40.000 revistas en Scopus esta mañana, porque yo recordaba que serían unas 25.000

Numero total de revistas Scopus en diciembre de 2022

Aquí lo explica (Profesional de la información » Blog Archive » ¿Cuántas revistas tiene indexadas Scopus? (profesionaldelainformacion.com) y confirma mi intución. Es que 40.878 es el historico de toda la vida de Dios (Desde 2011) pero hay 14.000 inactivas.

Por otra parte, en diciembre de 2022 hay 21.494 revistas en Core Colection (las del JCR) pero SOLO 13.840 reciben de momento Factor de Impacto (todas las demás reciben una métrica alternativa JCI). A partir de junio de 2023 (es decir el JCR de 2022) TODAS las revistas Core Collection de WOS recibirán factor de impacto. Es decir que un 50% de nuevas revistas entrarán a competir. Eso generará un vuelco en las clasificaciones. (porque automáticamente los cuartiles pasarán a tener un 50% más de revistas. Actualmente en Q1 hay unas 3500 revistas y pasará a haber 5.500 revistas. Algunas de las que entran, entrarán en Q2-Q3 (no van a entrar todas en la cola, ya os lo aseguro)

Dado que, para muchas personas investigadoras, el principal criterio para elegir revista sea el IF (que no creo que sea el mejor criterio para elegirla, pero entiendo que estéis obsesionados/as con eso), que sepáis se habrá varios años turbulentos. hasta que las comisiones sean capaces de:

a) enterarse de que esto va a pasar (os asombraréis, pero la mayoría ni lo sabe, aunque sea algo publico desde hace más de 8 meses)

b) pensar si eso obliga a modificar las horquillas de puntuación por cuartiles o la politica «anti-scopus» que claramente hay actualmente o si deciden dejarlas igual

Mas de la mitad actual de Q2 IF WOS pasará a ser Q1 en el JCR 2022. Todo el Q3 actual pasará a ser Q2

Visitas: 62

Negative or Net suppression/reciprocal or cooperativa suppression in mediated or PLS- SEM models

The negative sign in the path  or weight means «negative or net suppression». This is a common issue when using several variables correlated in the same model. The tricky issue is that all variables are positively related wth SC-Ad (se latent variable correlations in 2nd order HOC model), but you can observe a negative value in the path. How can this be possible? It is well documented in mediation analysis (i.e., Ato & Vallejo, 2011 page 558), and it is explained by the relative «impact» of the predictors on the dependent variable. The predictor less correlated with the dependent variable is used to “compensate” the “inflate” paths for the other predictors. The negative or net suppression occurs when all the variables have a high positive correlation among themselves (rXY, rXZ, rZY > 0), but the regression coefficient of one of the variables is negative. Reciprocal or cooperative suppression occurs when two variables are negatively correlated with each other, but both are positively correlated with the outcome variable.

Inconsistent Mediation (from Mediation (David A. Kenny) (davidakenny.net))

"If c' were opposite in sign to ab something that MacKinnon, Fairchild, and Fritz (2007) refer to as inconsistent mediation, then it could be the case that Step 1 would not be met, but there is still mediation. In this case the mediator acts like a suppressor variable. One example of inconsistent mediation is the relationship between stress and mood as mediated by coping. Presumably, the direct effect is negative: more stress, the worse the mood. However, likely the effect of stress on coping is positive (more stress, more coping) and the effect of coping on mood is positive (more coping, better mood), making the indirect effect positive. The total effect of stress on mood then is likely to be very small because the direct and indirect effects will tend to cancel each other out. Note too that with inconsistent mediation that typically the direct effect is even larger than the total effect."

  

Ato, M., & Vallejo, G. (2011). Los efectos de terceras variables en la investigación psicológica. Anales de Psicología, 27(2), 550-561. http://digitum.um.es/jspui/handle/10201/26561

 

Conger, A. J. (2016). A Revised Definition for Suppressor Variables: a Guide To Their Identification and Interpretation. Educational and Psychological Measurement, 34(1), 35-46. https://doi.org/10.1177/001316447403400105
Gaylord-Harden, N. K., Cunningham, J. A., Holmbeck, G. N., & Grant, K. E. (2010). Suppressor effects in coping research with African American adolescents from low-income communities. J Consult Clin Psychol, 78(6), 843-855. https://doi.org/10.1037/a0020063
Krus, D. J., & Wilkinson, S. M. (1986). Demonstration of properties of a suppressor variable. Behavior Research Methods, Instruments, & Computers, 18(1), 21-24. https://doi.org/10.3758/BF03200988
MacKinnon, D. P., Krull, J. L., & Lockwood, C. M. (2000). Equivalence of the Mediation, Confounding and Suppression Effect. Prevention Science, 1(4), 173-181. https://doi.org/10.1023/A:1026595011371

Visitas: 26

Cosas que no debo dar por sentadas sobre el trabajo en equipo

Durante esta semana he estado observando diversas reuniones (como participante o simplemente analizando cómo trabajan mis estudiantes). Algunas de esas reuniones se han realizado presencialmente y otras en modo remoto. Os comparto mis lecciones aprendidas sobre cosas que yo daba por supuesto y la realidad me ha mostrado que, en estos ejemplos de conveniencia (y para nada generalizables), no se cumplían.

Lección 1. No está claro que cualquier persona con varios años de formación universitaria sabe trabajar en grupo.

La tendencia es a pensar que, aunque no hubieran aprendido en su etapa de formación en el instituto, está claro que tras varios años en la universidad, con las tareas en grupo que se les encargan (tanto en prácticas como en dinámicas de aula) y saldrían de serie con unos comportamientos básicos aprendidos. Si estamos pensando en profesores o investigadores o profesionales que estudiaron hace años en la universidad, como continuamente hay que trabajar en grupo, todos deben ser expertos.

Pero la realidad es que si planteas una tarea en grupo sin dar unas directivas específicas de qué hacer en cada momento y cómo (es decir tele-dirigiendo completamente al equipo), muchas veces observas comportamientos individuales. Cada uno hace «lo suyo», sin interaccionar con los demás, y sin tener muy claro qué es lo que los demás esperan de su tarea y, al final juntan las partes y ya está  (grupos «grapadora»: se juntan solo para grapar o encuadernar las partes). El resultado es un poco «monstruo de Frankenstein».

Y si el grupo está en remoto, esta «tendencia» a hacer las cosas individualmente y no interactuar con el resto de personas del grupo se acreciente mucho. Esto me lleva a reflexionar sobre si los patrones de interacción en los grupos remotos y en los grupos presenciales son distintos (en el mismo contexto de discrecionalidad de tarea y con mismas personas, solo cambiando de presencial a remoto).

Voy a ver si alguien ha escrito algo sobre «interaction paths in remote meetings»

Lección 2. Desempeñarte muy bien en reuniones presenciales no garantiza que seas capaz de trasladar los comportamientos adquiridos en presencial a entornos remotos.

Esto lo he podido comprobar ampliamente durante los últimos años (en pandemia) y sigo observándolo en casi todas mis reuniones remotas actuales (en las de esta semana  también).

Gente a la que conozco y he visto interactuar en reuniones presenciales, olvidan muchas de las «buenas prácticas» cuando se embarcan en una reunión remota.

Por ejemplo, dar «feedback» a los demás participantes (reformulando las ideas, asintiendo/negando con la cabeza o siendo expresivo con el lenguaje no verbal, manteniendo el contacto visual periódico con todas las personas participantes…). Todas las reuniones donde he participado en remoto eran lo más parecido a una partida de póker (o de «truc») profesional. Nadie expresaba «emociones», todos los canales de comunicación rica cortados… Un desastre.

Se podría alegar que la tecnología no lo permite. Pero no es cierto. Acepto que la riqueza del canal mediado por una pantalla y un teclado (mas una cámara y un micro), no es la misma que un presencial cara a cara. Pero entre blanco que negro hay un conjunto de grises, y otros colores. Por ejemplo:

  • ¿Por qué no usas los emoticonos disponibles en todas las plataformas de videoconferencia? Al menos para demostrar tu apoyo tienes varias opciones (aplauso, corazón, caritas sonrientes). Cierto que no hay ninguna para mostrar desacuerdo. Pero ya llegarán o puedes usar algunas de las otras opciones que comento a continuación
  • ¿Por qué apagas tu cámara cuando los demás hablan -y la conectas cuando vas a hablar tu-? ¿Es que no consideras relevante mostrar tu escucha activa a la persona que habla?
  • ¿Por qué no sonríes, disientes, asientes, levantas tu pulgar, muestras el pulgar hacia abajo, o expresas con cara y manos durante la reunión? Obviamente si eres de los del punto anterior (que apagan la cámara en las reuniones) todo esto ya no aplica
  • ¿Por qué no usas el chat para reformular ideas o mostrar «emociones» o tu punto de vista sobre lo que se está hablando? Algunas personas han llegado a pedir que no se use el chat porque «despista» al que habla. Vale, lo entiendo en un contexto de «monólogo», pero no en una reunión de grupo. Precisamente estos «despistes» son los que permiten enriquecer la comunicación y que el esfuerzo de reunirnos síncronamente se compense de alguna forma. Si no, con grabar un video y distribuirlo te ahorras una buena parte de la reunión (cada uno se ve el vídeo por su cuenta y luego planteas una reunión corta donde se va a hablar exclusivamente de las dudas o contrastar opiniones sobre lo expuesto)
  • ¿Por qué no hay forma de saber cuántas personas están realmente conectadas en la reunión y no solo una sesión abierta? Esas veces donde preguntas a una de las personas que supuestamente está conectada y pasan segundos o minutos o cuartos de hora y no contestan (ni siquiera un mensaje en el chat)

Lección 3. No todo el mundo es capaz de mantenerse centrado en las tareas del grupo cuando estás en remoto (ni cuando estás en presencial)

En presencial es común desde hace años que los estudiantes (y también los profesionales en sus grupos de trabajo) se dispersen atendiendo sus dispositivos móviles mientras otras personas están intentando participar en una reunión. Yo creo que el tiempo de grupo es sagrado porque representa mucho esfuerzo sincronizar las agendas para tener un tiempo de intercambio común. Sin embargo, hay personas que consideran que contestar cualquier mensaje que les llegue a su móvil (de redes sociales o de comunicación instantánea), o revisar quién llama o incluso atender una llamada es más importante que el tiempo de las otras personas de la reunión. No estoy hablando de asuntos importante que se haya advertido al principio de la reunión que es posible que interrumpan nuestra atención.

Pues en remoto ya os podéis imaginar lo que puede llegar a pasar con personas sin los hábitos adecuados de respeto al grupo.

Una de las cosas que me ha sorprendido esta semana es que los estudiantes que estaban en una actividad de grupo presencial (en un entorno mucho más incómodo y ruidoso) rendían como el doble o el triple que los que estaban en la misma actividad en remoto (en la tranquilidad de sus casas, en habitaciones individuales y, aparentemente, sin distracciones). En el mismo tiempo, los primeros leían una media de dos o tres documento y los segundos sólo uno y no llegaron a completar su lectura.

Lección 4.Tras dos años trabajando en grupo en remoto muchas personas siguen sin saber utilizar las aplicaciones

Antes de que me hagáis una crítica fácil. No me refiero a que la aplicación se haya actualizado y ahora los botones o menús estén en otro lado (eso es absolutamente disculpable) o que en una reunión con personas de otras organizaciones te veas forzado a usar una aplicación nueva que no es la que se emplea como aplicación corporativa en tu organización habitual.

Lo que intento decir es que las personas de una organización no saben usar las aplicaciones que su organización lleva como mínimo desde marzo 2020 utilizando para su trabajo remoto. En el caso de mis estudiantes, esa aplicación se llama Office365. Pues bien, dos años después hay personas (y no una, ni dos), que no saben editar de manera compartida y síncrona un documento de texto, presentación u hoja de cálculo con Office365. Algunas personas, ni siquera saben que eso es posible y consideran que solo «google drive» ofrece esa funcionalidad.

Me he quedado pasmado viendo como mis estudiantes hacían una ronda para recoger todos los emails para poder editar un documento de texto en google drive, cuando tenían, al mismo tiempo abierto TEAMS y la posibilidad de crear un documento en TEAMS al que, automáticamente, todos tenían permisos de edición.

No me vale la excusa de «es que yo domino Google Drive» (porque no es cierto, no saben como exportar le documento creado en un formato «.docx») o que «en drive es más fácil o se pueden hacer cosas que Office365 no puede» (yo creo que es justo al revés)

Lección 5. Se presta muy poca atención a como se «etiquetan» los documentos generados por el grupo

En todos los grupos en los que participo, cada personas nombra los documento del modo que le apetece (muchas veces son un críptico: «documento1.docx», que es el nombre por defecto que sale al indicar que quieres guardar un archivo). Esto pasa incluso cuando das normas explícitas a un grupo indicando cómo quieres que se nombren los ficheros para poder luego archivarlo (y recuperarlos) con facilidad (sin tener que dedicar tiempo de un «archivero» a que renombre cada uno de los documentos).

En mi opinión los documentos que genera el grupo es la esencia que queda como resultado del tiempo invertido. Como mínimo debería haber un acta, pero también puede haber otros «productos» específicos liberados en forma de documento (texto o imágenes o fotos o lo que sea).

Si esos documentos no se van a tener que consultar nunca más, los puedes etiquetar como te apetezca, porque no va a afectar a nada. De hecho si no los vas a consultar nunca más, te puedes ahorrar el hacer el documento (y quizás también la reunión. Porque si de la reunión no se deriva nada que debas usar en futuro, aunque solo sea un acuerdo o una lista de tareas, quizás es que no era muy necesaria).

Sin embargo, si vas a reutilizar el resultado del grupo (o puedes necesitar consultarlo en el futuro), es imprescindible que ése documento sea localizable. La forma más efectiva que yo he encontrado es «etiquetar» el documento en el nombre del fichero (eso nunca falla). Yo, como mínimo pongo la fecha en la que se ha realizado el documento, el contexto del equipo o proyecto al que pertenece y algunas palabras que pueden servir de clave para localizar el documento por tipo (acta, acuerdo, propuesta, plantilla, lecciones-aprendidas) y otras para poder filtrar y evitar «falsos positivos»

 

Visitas: 35

Problemas que aparecen trabajando en equipo

angry manager
Foto de Negocios creado por DCStudio – www.freepik.es

En la última sesión de una de mis asignaturas, los estudiantes identificaron los siguientes problemas que han experimentado trabajando en equipo (en entornos de educación universitaria). He parafraseado e integrado las ideas (y no me he podido resistir, he puedo algunos comentarios míos en corchetes cuadrados con color diferente):

  1. Personas que no se implican o toman en serio el trabajo a realizar ([incumplen las fechas acordadas, se aprovechan del trabajo de otros, polizón/»free-riders»])
  2. Personas extremadamente críticas hacia otras opiniones que no sean las suyas propias
  3. Personas que te presionan continuamente para que completes tu tarea ([¿en serio? ¿esto es un problema o el problema es no completar las tareas cuando se acordó?])
  4. No querer reunirse para realizar el trabajo (dificil coordinar horarios, poco interés, sobrecarga de otras tareas, o cualqueir otro motivo), se preparte la tarea y luego se junta ([yo a esto le llamo «grupos grapadora», no hay interacción , ni interdependencia, ni sinergia, ni aprendizaje cruzado…Simplemente se ven el día del reparto y el dia que «grapan» las partes del informe a entregar])
  5. No mostrar empatía o interesarse por lo que necesitan las demás personas del equipo. Hacen su tarea y no se preocupan de los problemas que puedan tener otras personas del grupo
  6. Reparto no equitativo de tareas. Algunas personas puede acabar haciendo mucho más trabajo que otras ([seguramente muy vinculado al problema 1, y agravado con 4 o con 5])
  7. Problemas de comunicación dentro del equipo
  8. Problema de socialización en el grupo (desponocimiento de las otras personas)

Y sospechan que los principales problemas que se pueden presentar cuando trabajen en una organización sean:

  1. Falta de implicación
  2. Presión de la persona que ocupa el mando para que el trabajo se cabe cada vez antes
  3. No tener claros los objetivos
  4. Crear subgrupos dentro del equipo y que funcionen sin comunicarse (de manera independiente y cada uno remando en una dirección diferente o haciendo tareas repetidas mientras otras se quedan sin hacer)
  5. Conflictos originados por una relación personal entre personas integrantes de un mismo grupo

A partir de esta información me gustaría responder a estas preguntas:

  1. ¿Son similares los problemas a los que se enfrentan como estudiantes que a los que se enfrentarán como profesionales en las organizaciones?
  2. ¿Qué dice la investigación previa sobre la prevalencia de estos problemas  o cómo resolverlos?
  3. ¿Cómo afecta el trabajo remoto a estos problemas? ¿Los aumenta, los mitiga, o simplemente no afecta ni en un sentido ni en otro?

 

#SINCOE #RRHH #GIOI #TEAMWORK #EvidenceBasedManagement #RemoteWork #TrabajoRemoto

 

 

Visitas: 446

¿Quo vadis Sexenios?

Deadline disaster cartoon scene Free Vector

Paper vector created by macrovector – www.freepik.com

Igual me equivoco. Mi sensación es que los sexenios actuales, al menos en el campo donde está mi área de conocimiento, están mandando este mensaje:

«Si no eres capaz de publicar en una revista de muy alto nivel (no que realices una investigación de muy alto nivel) 5 veces en 6 años (o en una de altísimo nivel 3 veces en 6 años), deja de investigar y dedícate solo a impartir docencia»

En otra entrada de mi blog explico que, en mi caso, impartir 32 créditos (320 horas de clase presencial) implican 1500 horas de trabajo. Obviamente esta estimación es si lo haces bien: te documentas; actualizas contenidos, casos y actividades; haces evaluación formativa dando feedback y feedforward a los estudiantes (bien individual, bien colectivamente); etc.
Con 32 créditos queda muy poco margen para hacer una investigación potente. O si lo prefieres, es probable que el esfuerzo de tu investigación drene tu docencia, que se resentirá drásticamente.

Esto me crea confusión y no tengo clara cuál es la finalidad o función de los sexenios en el panorama de la investigación en España. Siempre había creído que eran un complemento retributivo. Me basaba en las batallitas que me contaron los más viejos del lugar (aquellos que vivieron en primera persona la publicación del BOE que creaba los sexenios) y tras leer los BOE fundacionales de los sexenios.

Sin embargo la utilización que se hace de los mismos actualmente me parece que encaja más con un premio competitivo de excelencia. Obviamente, las personas solicitantes no compiten con otras solicitantes. No hay un cupo de sexenios a conceder en cada convocatoria. Pero sí se compite por los escasos huecos para colocar un artículo en una revista puntera. O por conseguir ser citado, que también son unos huecos limitados (algunas revistas, o algunos revisores, imponen límites al numero de citas. Yo creo que se equivocan, pero ahí están, entre las revistas que acumulan mayor número de citas). Esta competición es contra otras personas que investigan en todo el mundo y se basa en posiciones o ránking o estadística de distribución de citas por artículo.

Por lo tanto, se me ocurren dos posibles funciones que podrían estar en la base de los sexenios. Quizás haya más, pero ahora sólo se me ocurren estas dos (y como veréis es difícil que puedan cumplir ambas, porque el modo de ponerlos en marcha es radicalmente diferente dependiendo de la función que quieres que cumplan):

A) Sexenios es una herramienta de motivación del personal docente e investigador de las universidades españolas, y puede servir, además, como una comprobación rápida de que el trabajo de investigación de 6 años es «digno». En ese caso, es necesario: a) fijar el norte de qué es lo que se quiere potenciar y b) poner un conjunto de métricas alineadas con ese objetivo (lo que se considera un trabajo digno). En este caso, los indicadores deben ser objetivos, predecibles y fijos antes de que la persona haga la investigación. Si se cambian, deben mantenerse las dos «métricas» durante 6 años y usar la que más favorezca a la persona solicitante en ese periodo. El sistema debería ser transparente, sencillo de entender y totalmente automatizable. Se puede hacer un simulador pues, en esencia, la concesión es una decisión totalmente programada y no debe haber sorpresas, ni ambigüedades. Lo que se busca es motivar y crear pasión en un conjunto amplio de personas (miles en total, cientos en cada comisión). No se busca cabrearlas, ni frustarlas, ni ansiarlas. Si se usan evaluadores humanos con criterios subjetivos es sólo para valorar reclamaciones o para casos poco comunes.

B) Sexenios es una evaluación de la calidad de la investigación de la persona solicitante, con un criterio fundamentalmente de excelencia. Aquí encaja mucho una evaluación diversa y rica. En línea con DORA, usando un panel de expertos que pueden valorar, cualitativamente, CADA aportación de CADA solicitante y su historial en el periodo evaluado. Siempre será una evaluación impredecible (aunque sea transparente) porque se basa en juicios humanos (no algoritmos). No tengo claro si, el volumen de solicitudes permite este tipo de evaluación (no es solo que aumeten recursos, si lo hacen hay que alinear criterios de todavía más evaluadores para que no haya agravios comparativos). Tampoco sé si, en este caso B, sería aceptable establecer las métricas y los niveles «a posteriori» (cambiarlos cuando la persona solicitante ya ha realizado su investigación). Desde luego, sera mucho menos dañino que en el caso A) (motivación). Porque se asume que la excelencia es una competición con unas expectativas diferentes a la de la motivación de la fuerza laboral.

Visitas: 34

Como localizar el impacto relativo de un articulo científico (medido como citas)

En primer lugar, me gustaría aclarar que el impacto de un articulo mucho más que medir sus citas en un determinado proveedor de servicios de indexación de revistas científicas. Lo que pasa es que contar las citas es sencillo (si te conformas con los datos que te proporciona Clarivat/WOS, Scopus o Google Scholar), lo que no quiere decir que sea relevante, ni sea «verdadero» impacto. Es la versión de impacto más sencilla y, a veces, la única que podemos calcular de manera práctica.

Con esto en mente, la pregunta que intentare resolver en esta entrada es ¿cómo saber si un artículo científico publicado es más citado o menos que los artículos similares?

De nuevo tengo que hacer una suposición que no es menos drástica y no genera menos sesgo que la de asumir que impacto = citas. Se trata de asumir que un artículo es similar si:

  1. Se ha publicado el mismo año. Aunque no es lo mismo que se publique en enero, que en diciembre, o que haya estado años en «advanced online» sin fecha definitiva de publicación… Sobre todo cuando la fecha de publicación es reciente, porque aún teniendo el mismo año de publicación un articulo puede estar expuesto al circuito de citas el doble, triple o incluso cuatro veces más de tiempo que otro (de modo que muy similares no serían)
  2. Son del mismo «tema» o «área de conocimiento». La idea de fondo es que hay áreas o comunidades científicas donde los circuitos de maduración de citas (el tiempo habitual que se tarda en ser citado, el numero habitual de citas recibidas y el tiempo que tardas en pasar a ser difícilmente citable por «antiguo») es muy diferente. El problema es que tanto Clarivate/WOS como Scopus tienen un método un tanto cuestionable (no solo por su poca transparencia, sino por sus patentes fallos de clasificación) de decidir en qué área colocar un articulo y, por lo tanto, establecer el conjunto de artículos similares con el que comparar

Por último, debemos asumir que disponemos de acceso a plataformas de pago que hacen el trabajo por nosotros (no conozco ningún servicio gratuito que permita realizar lo que voy a comentar en esta entrada). O pagas una suscripción a Clarivate/WOS o a Scopus, o la paga la institución para la que trabajas. Pero, al menos con mis conocimientos, esto no lo puedes hacer sin rascarte el bolsillo o que alguien se lo haya rascado por ti (o hayas pirateado o usado materiales al margen de las condiciones de uso exclusivo que permiten Clarivate/WOS o Scopus).

En este contexto, y solo en este contexto, es posible dar algunas respuestas a la pregunta.

Advertencia: el procedimiento, enlaces y pantallazos se corresponden a cómo resolver esto en octubre de 2021. Como las plataformas cambian con relativa frecuencia, es posible que las rutas o ubicación de las opciones sea completamente diferente el día que vayas a intentar hacerlo tu.

Primera Opción: las herramientas de indices de impacto que proporciona la suscripción de recursos científicos de FECYT

Accedes a la página principal (si no tienes suscripción, no podrás pasar de ese paso): https://www.recursoscientificos.fecyt.es/

y eliges la opción «indices de impacto» en los botones negros grandotes

y en la nueva página eliges el sub-menú «Tablas de citas mundiales» (botón en gris en la parte superior)

En el momento de redactar la entrada si buscas con google «tablas de citas mundiales» los primeros resultados de la búsqueda apuntan directamente a ellas.

Estas tablas se actualizan una vez al año (sobre noviembre o diciembre) y sólo están disponibles hasta 3 años antes del momento en el que buscas (pues se considera que con menos tiempo, la posibilidad de recibir citas es muy escaso y las tablas no tendrían mucha utilidad, ni fiabilidad). En cualquier caso, si un articulo publicado hace menos de 3 años ya mejora los indicadores de los que aparecían hace 3 años, es muy buena señal de que tiene un «impacto en citas» que se podría considerar excelente (o al menos superior a la media de articulo que llevan mucho mas tiempo en el «expositor»).

Ten en cuenta de que hay tablas para WOS y tablas para Scopus. Porque cada una de ellas se crea con una fuente de datos diferente y con una metodología de agrupación por area temática muy, muy, pero que muy diferente (no te comparas con el mismo conjunto de artículos en WOS que en SCOPUS). Podréis preguntarme «si me salen datos muy diferentes, ¿cual sería el más adecuado para usar en «mi área»». La respuesta sencilla, es: si miras las citas en WOS usa la tabla de WOS y si las miras en Scopus, pues la de Scopus. Pero si lo que te pasa es que cuando comparas WOS te sale muy bien y cuando comparas Scopus te sale muy mal (que tienes menos citas que el promedio), o al revés. Entonces no me atrevo a dar una respuesta más allá del depende. Lo que si es cierto (eso es un dato objetivo) que, la cobertura de revistas del área de ciencias sociales y en especial en los campos relacionados con la administración de empresa (management), a fecha de 2021, es mucho mayor y mejor en Scopus que en WOS. Además, en scopus hay una división mucho más específica por sub-áreas dentro del campo de administración de empresas (Marin-Garcia y Alfalla-Luque, 2018). Pero «hasta aquí puedo leer». Que haya más cobertura de revistas o más clasificaciones no quiere decir que las agrupe mejor (quizás las agrupe igual de mal que WOS). Resolver esto daría para un artículo científico (animo a quien quiera a que lo haga y si no sabéis a qué revisa mandarlo, en JIEM o en WPOM estaríamos encantados de poder evaluarlo).

Además en cada una de las dos situaciones anteriores tienes dos tablas. En la primera tienes los «descriptivos» de las citas promedio recibidas por los artículos científicos publicados en determinados años, en cada área. En la segunda, para calcular el promedio se han incorporado también «conference proceedings«. Yo, personalmente, creo que solo tiene sentido la primera… pero si alguien se ha tomado la molestia de hacer dos tablas por algo será (como decía «La Bombi» en los casposos años del 1-2-3).

Esta es la información que proporcionan las tablas de citas. Tangase en cuenta que Dirección de Operaciones (Operations Management) no existe como campo, de modo que supongo que hay que considerar los «miscellaneous de business» o business en general como área de comparación. Pero oye, igual a otras personas les parece mejor otra cosa

Vaya… quizás tendría que haber pedido permiso a Elsevier para publicar esta foto.. Bueno, cuando tenga tiempo me dedico a escribir un párrafo que resuma algo de la información y pixelo esta tabla
Si, WOS, con vosotros también lo haré… pero cuando tenga tiempo.

Segunda Opción: las métricas a nivel de articulo que proporcionan WOS o Scopus

Scopus lleva años (al menos desde 2018) publicando el «citation benchmarking» y el  «field-weighted citation impact» , que se definen y calculan como se muestra en la figura (si quieres más información: Learn more about Article metrics in Scopus).

Definición del F-W citation impact de Scopus
Citation benchmarking

Esta información aparece en la página del articulo (cuando pinchas sobre el título del artículo en los resultados de una búsqueda para que te muestre la información completa). Hace un tiempo era en la parte lateral derecha, ahora está en la parte inferior de la páginas después del resumen… dentro de un tiempo estará en otro sitio.

Junto con el  Field-Weighted citation impact (recordad, 1 es que está mas citado de lo esperado) se puede ver el Citation Benchmarking: percentil correspondiente al número de citas del articulo cuando se compara con todos los articulos de scopus publicados en la misma fecha. En la figura, 6 citas en 2016 significa estar en el percentil 59%, lo que puede considerarse un impacto en citas notable dentro de Scopus.

he resaltado en azul oscuro la zona donde se ve la información

WOS se ha incorporado recientemente (2020) a las métricas a nivel de articulo con su «beamplot«. En estos momentos para acceder a estas métricas debes entrar en la página «personal» de cada investigador (Author Profile). Es decir, que no ves esta métrica cuando entras en la información del artículo. Tienes que localizar primero al autor-a

y luego pinchas en el vínculo que hay en su nombre

tras pulsar el enlace a un autor-a, te lleva a su página de perfil

y en la página que se abre con el perfil del autor, te desplazas hacia abajo hasta que encuentres el «Author Impact Beamplot Summary) (insisto, ahora está en la parte de abajo de la página, tras todas las citas de lo publicado. Pero pueden colocarlo en cualquier otro sitio en el futuro). Para ver los detalles, pulsa el botón «View full beamplot»

Los datos que se presentan son los mejores percentiles de citas de cada articulo comparando con artículos similares (si está en varias categorías se muestra el mejor). Más información en http://webofscience.help.clarivate.com/en-us/Content/author-record.html#Web

(solo se incluyen artículos del tipo «article» o «review» data papers u otras contribuciones científicas son ignoradas, de momento, en el «beamplot».

Una forma más rápida puede ser velo desde la cuenta de Publons (si te has creado una cuenta de estas. Es un producto derivado de WOS que promocionaron mucho hace dos años)

Resolvamos un caso práctico

¿Qué posición respecto a impacto en citas tendría este artículo?
Garcia-Sabater, J. J., & Marin-Garcia, J. A. (2011). Can we still talk about continuous improvement? Rethinking enablers and inhibitors for successful implementation. International Journal of Technology Management, 55(1/2), 28-42.

(datos recogidos el 29 de septimbre de 2021)

Opción 1:
36 citas Scopus; 36 citas en WOS

El artículo es de 2011, y la temática es de dirección de operaciones, de modo que voy a la tabla de citas de Scopus en la categoría de miscelánea dentro de Business y management, el promedio de citas para artículos de ese año son 13,8. Como el articulo tiene 36 es citado más del doble que el promedio. Si voy a la de WOS en Business es 18.16 y en management es 20,6, de nuevo 30 citas en WOS es casi el doble que el promedio de artículos de ese año en la categoría.

Opción 2:

WOS Beamplot: Busco el perfil de uno de los autores (en este caso el segundo autor), Me desplazo hasta la parte de la página donde esté el gráfico «beamplot» y pulsa el botón «view full beamplot»

y si paso el ratón por encima de uno de los artículos puedo ver los detalles. En este caso voy pasando por todos los de 2011 hasta encontrar el que me interesa. 36 citas en WOS para éste lo sitúa en el percentil 90

Scopus FWCI: busco el artículo en Scopus. En la pagina de detalle abro el campo de «metrics» y las 36 citas para un articulo de 2011 indica un percentil 45% y el FWCI es de 0.26 (que está alejado de 1).

Puede llamar la atención la diferencia de resultados (sobre todo cuando se compara con la tabla de citas de Scopus, que es la misma fuente de datos). Pero no olvidemos que:

The FWCI is the ratio of the document’s citations to the average number of citations received by all similar documents over a three-year window

Seguramente el FWCI no es un buen indicador para articulos antiguos (que seguramente ya no se citan en los últimos tres años, que parece que es la ventana que consideran).

Referencias:

Visitas: 1261