Homonimia y sinonimia, los dos males de la ciencia del management que impide a la IA dar resultado útiles

(contenido creado a finales de 2025, no sé lo bien o mal que envejecerá este post)

Con frecuencia, mis colegas investigadores me preguntan sobre qué plataforma de IA les recomiendo que pueda dar buenas respuestas a preguntas científicas/profesionales. Me ponen por ejemplo que los profesionales de medicina usan cosas como OpenEvidence ; Search – Consensus: AI Search Engine for Research ; Elicit: AI for scientific research

Mi opinión en estos momentos, basada en los experimentos que llevo haciendo desde hace un par de años (experimentos informales, no del todo sistemáticos, y sobre todo centrados en los temas o asuntos que me interesan a mí en mi día a día como investigador, docente y consultor), es que no hay nada en nuestro campo que aporte resultados “decentes” (que sean útiles, ciertos o que no tengan un sesgo tremendo en la respuesta).

Tanto OpenEvidence como Consensus, Elicit y similares solo aciertan (cuando aciertan) con literatura de ciencias de la salud.

Los motivos son claros para mí. Primero el modo que esas comunidades difunden su ciencia:

    • El tipo de artículos e investigaciones que hacen
    • Lo específicos que son al emplear términos y la estricta nomenclatura que usan (nunca emplean el término “dolor de cabeza”, usan, por ejemplo, cefalea tensional, neuralgia o migraña…, y cada uno es diferente de los otros)
    • El consenso en la reutilización de instrumentos de medida que se han demostrado válidos y fiables
    • y la tradición en “medicina basada en evidencia” que tienen (que igual es el origen de todo lo anterior)

Eso les permite que la IA pueda sacar resultados interesantes.

Además, aunque ya más tangencialmente, el conjunto de documentos con el que se ha entrenado el modelo (que claramente está sesgado a esas ciencias, porque entiendo que es donde más negocio pueden hacer los que venden esas plataformas).

Sin embargo, en el caótico mundo de la investigación en Management, donde cada uno pone el nombre que le da la gana a las “cosas” y midiéndolo cada vez de una forma distinta, el resultado es que una misma palabra significa cosas distintas en distintos artículos (homonimia) y, al mismo tiempo, las mismas cosas se nombran con palabras completamente diferentes (sinonimia).

No sé si resolviendo esto resolveríamos completamente el problema, pero habríamos dado un paso de gigantes para poder hacer una extracción sistemática a gran escala del enorme conocimiento que se ha ido generando en el área y que, de momento, está enmarañado.

Visitas: 15

Vamos a suponer que esta frase de Simon Sinek es cierta (que creo que lo es). Mi duda es si basta que uno (o unos pocos) en la cadena no tenga 💘, para destrozar el trabajo de todos los demás, en cuyo caso, cuando los procesos son largos, complejos y atraviesan diferentes unidades que no se comunican fluido entre sí, tendríamos un sistema muy vulnerable (que me temo que va por ahí la cosa).

Por ejemplo, aplicado a mi organización; si nuestro PDI, PTGA y subcontratas no 💘 UPV, nuestros estudiantes no podrán tener una experiencia memorable de su paso por la UPV. Lo que no sabría deciros es el nivel de 💘 en cada colectivo, ni si están agrupados en procesos, o cada proceso tien un poco de todo y, por lo tanto, la experiencia no sería lo maravillosa que podría ser en ninguno.

Visitas: 5

¿Te da miedo que la IA sea mejor que tus estudiantes? A mí no

He comparado la respuesta de Claude-sonnet-4 y las de 4 grupos de estudiantes de máster (5 personas en cada grupo) con un caso que he preparado como diagnóstico inicial para comprobar las competencias de mis estudiantes el primer día de clase.

Mis estudiantes han estado trabajando 2 horas sobre un caso de 5 páginas donde su tarea estaba descrita en un párrafo y el resto era información de contextualización.

El Prompt usado con Claude-sonnet-4 en poe.com era simplemente el párrafo de descripción de la tarea a realizar sin ningún contexto adicional (ni de nivel de estudios, ni de contexto… nada). 

“resuelve este caso “”Formas parte de un proyecto que pretende alinear el uso de Inteligencia Artificial (IA) con los valores y objetivos estratégicos de la UPV, de modo que la IA ayude a construir
en lugar de minar el futuro que queremos ser.
Como grupo, debéis manifestar vuestro punto de vista, como estudiantes universitarios,
sobre cómo percibís la IAgen, explorar los problemas o inquietudes que os genera en los
diferentes usos o funciones en las que os afecta como estudiantes en la universidad y
clasificarlos/filtrarlos. Para acabar proponiendo un listado de recomendaciones (o guías)
de uso que sugerís para resolver las causas que originan los problemas que consideráis
como principales y un plan para la implementación de esas recomendaciones.”””

Todos los grupos de estudiantes, en lugar de hacer unas guías para estudiantes, han hecho recomendaciones para la universidad o sus equipos directivos. Claude-sonnet-4 ha cometido exactamente el mismo error en la primera iteración. No obstante, su informe ha sido mucho mejor que el de cualquiera de los grupos.

Le he pedido a la IA una segunda iteración: “las recomendaciones que has dado son para la institución, no has respetado la tarea que era crear recomendaciones para los estudiantes. Por otra parte, ajusta el reporte al modelo triple diamante”. En este caso ha clavado las recomendaciones, aunque su interpretación de lo que era el “framework” de triple diamante dejaba mucho que desear, pero le hubiera puesto un 5 o un 6 de nota a ese ejercicio (los ejercicios de mis estudiantes no creo que pasen de un 2 o un 3, pero a ellos no les he dado la oportunidad de repetirlo).

Conclusión:

Cuando les pido a mis estudiantes, a PRINCIPIO de curso que resuelvan un caso y les valoro en base a los resultados de aprendizaje que esperaría que tuvieran a FINAL de curso, la IA generativa les da “mil vueltas” (o por lo menos una decena).

Lo interesante aquí es qué pasará al final del curso cuando mis estudiantes hayan superado los resultados de aprendizaje esperados. La IA generativa no mejorará su nota de 5-6 (salvo que estemos ante un nuevo modelo), entonces creo que serán mis estudiantes los que le darán mil vueltas a la IA generativa.

Visitas: 23

Cuando la esperanza se encuentra con la fotocopiadora

Hoy se me ha cruzado un artículo que he leído en diagonal, saltándome toda mi GTD-disciplina-“heiunka” del día, alimentando mi procrastinación. Pero dejando de lado que se va a hundir el indicador de Volumen y el de Secuencia de mi OEE personal, un par de párrafos me han resultado útiles.

Estos párrafos hablan de los tres elementos que generan esperanza (visión compartida de un futuro ilusionante; autoconfianza; resiliencia). Lo que he pensado yo es que la esperanza incita la acción. Si queremos transformar nuestra docencia (o cualquier otra función o proceso en una organización), necesitamos no solo pensar qué hacer (que ya es una acción), sino ponerlo en práctica superando las barreras que haya y echar mano de la resiliencia cuando las cosas no salen como esperamos (si es que no salen como esperamos). Esto es complicado cuando la cultura imperante (el discurso recurrente cada vez que nos cruzamos con alguien en un pasillo, una fotocopiadora, una mesa de cafetería…) es “desesperante” además de desesperanzada. Ya llegamos tarde, pero mejor tarde que nunca, para cambiar el chip todas aquellas personas con una visión ceniza que además se dedican a contagiarla en cada encuentro con otras personas.

  • Visión compartida – Creer que es posible superar las circunstancias actuales
  • Métodos conocidos – Saber cómo llegar a las metas con prácticas apropiadas
  • Motivación colectiva – Tener la fuerza para resistir las dificultades juntos

La cita que ha originado esta reflexion:

“Katina Sawyer and Judy Clair (2022) outline the myriad ways through which hope plays a role in organizations. Their research can be broadly applied to the way that hope operates not only in the workplace, but also in communities organized by nationhood. They explain that hope is made up of three parts. First, organizational members need to have a shared vision for a hopeful future, as part of everyday conversation — they must believe that it is possible to move beyond their current circumstances and achieve more desirable outcomes. Second, organizational members have to believe that they know how to get to their goals via methods and practices that they deem appropriate. Goal achievement will not be straightforward; setbacks will happen and doubt will arise. And third, the organization must embody a shared sense of motivation toward their goals. When times get tough, hopeful organizations believe that they have what it takes to weather the storm. They return to the shared vision and see the relevance of sticking together.

However, it is easy to make the point that hope can backfire. A collective belief of hope is only positive when making progress toward its promises seems realistic. But when events appear to throw things off track, there’s a similar emotional contagion, but in a negative direction — when negative emotions reign, organizations become hopeless and grow increasingly more dull and de-energized.” (Seijts et al 2025)

Referencias:

Seijts, G., Opatska, S., Rozhdestvensky, A., & Hunder, A. (2025). Holding onto the victory after the victory: Leadership lessons from the war in Ukraine for recovery and positive change. _Organizational Dynamics_, 101195. https://doi.org/10.1016/j.orgdyn.2025.101195 

Sawyer, K., & Clair, J. (2022, October 18). _The complicated role of hope in the workplace_. Harvard Business Review. https://hbr.org/2022/10/research-the-complicated-role-of-hope-in-the-workplace

Visitas: 11

DECIDE – Design and Evaluation of Collaborative Intervention for Decision Enhancement

Extended Title: Action research on designing materials, protocol, and feasibility of a complex intervention to foster critical thinking and apply the triple diamond framework in group decision-making.

This project aims to enhance students’ critical thinking and decision-making skills by developing, testing, and refining a structured group decision-making framework called the triple diamond. It focuses on identifying misconceptions that hinder students’ use of this framework and improving pedagogical interventions through active, collaborative learning and evidence-based methodologies.

  • Project scope and participants: The innovation will be implemented across multiple courses in engineering, logistics, and business master’s programs, involving diverse student groups facing recurring difficulties in applying structured decision-making methods.
  • Problem identification: Students consistently rely on intuitive rather than structured approaches in group decisions, struggling to apply the triple diamond framework despite repeated instruction and practice. This issue is persistent and mirrors challenges observed in professional settings.
  • Theoretical foundations: The project integrates concepts of misconceptions, knowledge elicitation, threshold concepts, and decoding the discipline to reveal and address barriers to expert-like thinking in decision processes. It emphasizes the reorganization of knowledge fragments rather than the mere replacement of incorrect ideas.  
  • Learning objectives: Students will learn to manage group decision processes using the triple diamond, define tasks and prioritization criteria explicitly, analyze innovation competencies, and develop reasoned, evidence-based reports, all enhancing critical thinking skills.
  • Methodology: The project employs active and collaborative learning through structured three-hour classroom dynamics complemented by autonomous preparatory work. It incorporates innovative visual case representations, reflective learning journals, and think-aloud protocols to elicit student thinking and identify misconceptions.
  • Expected outcomes: These include identifying common misconceptions, adapting and developing rubrics for assessment, quantifying students’ valuation of innovation competencies, improving decision quality and reducing cognitive biases, and evaluating the impact of different case presentation formats on engagement and critical thinking.
  • Work plan and tools: The two-year plan details tasks such as material development, rubric adaptation, protocol design, experimental validation, and dissemination through academic articles and conferences. Project management uses O365 tools with regular team meetings and quality control processes.
  • Evaluation strategy: Evaluation includes measuring the number and categorization of misconceptions, rubric validation, analysis of student preferences and clusters, transferability assessments, pre-post intervention comparisons, and engagement metrics using established models. Data collection involves think-aloud sessions, forum analyses, and observations.
  • Impact and dissemination: The project aims to improve teaching and learning by making decision-making processes transparent and evidence-based, enabling transfer across disciplines and formats, including MOOCs. Results will be shared via conferences, indexed publications, online platforms, and social media, ensuring broad accessibility and adoption.

#PI-DECIDE

Visitas: 19

Ruiz Martín, H. (2023). “edumitos”: Ideas sobre el aprendizaje sin respaldo científico

Ruiz Martín, H. (2023). “edumitos”: Ideas sobre el aprendizaje sin respaldo científico (1a edición: diciembre 2023). International Science Teaching Foundation.
Hoy pego el índice para que puedas ver si hay temas que te interesan.
 
A mí, de entrada, me interesan el 1, 2, 6, 7, 8, 9, 11, 14, 16, 17, 18, 19 (junto con 15), 23, 24, 25, 27, 28, 35, 36, 37, 38, 39, 40, 41, 42, 44.
y me llama la atención el 5, 34
 
Vamos, que casi un pleno.

Imagen

Imagen

Imagen

Imagen

Visitas: 32

Significativo, pero no relevante

Esta es mi conclusión, contraría a la de las personas que han escrito este artículo. Para mí, 0.4 puntos de diferencia en una escala de 1 a 7 sobre algo complicado de medir y con mucha subjetividad, me parece que es más bien lo contrario, un nivel de acuerdo excepcional.
Tsirkas, K., Chytiri, A. P., & Bouranta, N. (2020). The gap in soft skills perceptions: A dyadic analysis. Education and Training, 62(4), 357–377. https://doi.org/10.1108/ET-03-2019-0060 

Luego hay un “temita” que normalmente me desespera un poco y es el de los gráficos falsos (si, vale no son falsos, pero están trucados). Este radar chart es un ejemplo clarísimo. El truco es que no pones el principio y el final de los ejes del gráfico en el nivel mínimo y máximo de la escala respectivamente (que sería un 1 y un 7). Sino que el centro lo pones en un valor arbitrario, por ejemplo, el 4, y el tope de la escala lo pones en 6,5 (otro valor arbitrario). De modo que cada “curva de nivel” ya no representa un punto sino, quizás, 0,2 puntos y entonces las diferencias visuales quedan magnificadas. Por supuesto, si no pones los números el impacto es mayor. Aunque los pongas, el truco sigue funcionando porque el espacio visual impacta más que el hacer una resta entre 5.76 y 5.29 (por ejemplo, para trabajo en equipo).
Si queréis engañar o confundir a la audiencia es la mejor forma de hacerlo, pocas personas se darán cuenta del truco y el impacto es ¡Wohw, vaya diferencia más brutal!

No hay descripción alternativa para esta imagen

Visitas: 10

El Juego Infinito en la Gestión: ¿Filosofía de Crecimiento o Trampa Burocrática?

Una reflexión crítica sobre el concepto de Simon Sinek y sus implicaciones en el mundo corporativo


El concepto del “juego infinito”, popularizado por Simon Sinek, ha ganado tracción en círculos de  gestión empresarial. La idea es que hay dos tipos de juegos:

  • Juegos finitos: tienen reglas fijas, jugadores conocidos y un final claro con ganadores y perdedores.
  • Juegos infinitos: el objetivo no es ganar, sino seguir jugando, evolucionar y perpetuar el juego.

La premisa es: “En el juego infinito, el objetivo principal es seguir jugando”. Pero se me ocurre que esta frase admite, al menos, dos interpretaciones.

La visión positiva: sostenibilidad y crecimiento continuo

[esta es la visión de Simon Sinek] Cuando se aplica correctamente, la mentalidad del juego infinito puede revolucionar cómo gestionamos equipos:

  • Optimización continua vs. metas estáticas: en lugar de obsesionarse con KPIs trimestrales, se enfoca en la mejora sostenible de procesos
  • Adaptabilidad: los sistemas se diseñan para evolucionar, no solo para cumplir métricas específicas
  • Innovación como norma: se fomenta la experimentación constante en lugar de la rigidez procedimental
  • Desarrollo profesional continuo:  su carrera como un viaje de crecimiento, no una carrera hacia un puesto final
  • Retención a largo plazo: se construye lealtad basada en propósito compartido, no solo en compensación
  • Cultura de aprendizaje: los “fracasos” se convierten en oportunidades de mejora organizacional

La trampa oculta: cuando “seguir jugando” justifica la mediocridad

Sin embargo, es posible que los conceptos bien intencionados pueden distorsionarse peligrosamente:

Señales de alarma

❌ Reuniones infinitas sin decisiones concretas
❌ Procesos "en revisión permanente" que nunca se optimizan
❌ Proyectos que se extienden indefinidamente sin entregables claros
❌ KPIs que cambian constantemente para evitar responsabilidades
❌ Planes de desarrollo sin métricas ni plazos específicos
❌ Feedback "continuo" que nunca genera acciones correctivas
❌ Cultura del presentismo disfrazada de "compromiso con el proceso"

Propuesa de aplicación práctica para organizaciones

✅ Implementación Efectiva:

  • Establecer ciclos de mejora con entregables concretos cada x días
  • Medir tanto el progreso incremental como los resultados finales
  • Mantener flexibilidad en métodos, pero claridad en objetivos
  • Crear rutas de desarrollo con hitos medibles pero flexibles
  • Fomentar el crecimiento continuo dentro de marcos de accountability (rendir cuentas)
  • Equilibrar estabilidad laboral con expectativas de performance
  • Cultura del trabajo

❌ Evitar:

  • Usar “proceso continuo” como excusa para no tomar decisiones difíciles
  • Confundir actividad constante con progreso real
  • Cultura del esfuerzo
  • Sacrificar eficiencia presente por una “visión a largo plazo” mal definida
  • Promover la retención a cualquier costo, incluso de talento no productivo
  • Crear programas de capacitación infinitos sin aplicación práctica

Preguntas de reflexión para tu organización

  1. ¿Nuestros “juegos infinitos” están generando valor real o solo actividad?
  2. ¿Estamos usando la filosofía del crecimiento continuo para evitar decisiones difíciles?
  3. ¿Nuestros equipos entienden la diferencia entre mejora constante y trabajo sin propósito?
  4. ¿Tenemos métricas que distinguen entre “seguir jugando” productivo vs. improductivo?

Conclusión: 

El concepto del juego infinito no es inherentemente bueno o malo – su valor depende de cómo lo implementemos. Nuestra responsabilidad es:

  • Adoptar la mentalidad de crecimiento continuo sin sacrificar la “rendición de cuentas”
  • Fomentar la adaptabilidad manteniendo estándares de rendimiento claros
  • Crear sistemas sostenibles que generen valor añadido, no solo actividad aparente

El verdadero arte del liderazgo está en saber cuándo seguir jugando vale la pena… y cuándo es hora de cambiar las reglas del juego.


¿Cómo está aplicando tu organización el concepto del juego infinito? ¿Has identificado áreas donde esta filosofía podría estar justificando ineficiencias? La clave está en la implementación consciente y la evaluación constante de resultados reales.

Visitas: 9

Empieza con el por qué

En los tres primeros meses de mi dirección de área he estado identificando qué proyectos, de los identificados en el Vicerrectorado de Planificación et al. (VPEC), asumía como “jefe de proyecto” y los activaba en mi cartera de proyectos personal. 

En paralelo he estado realizando tareas que iban surgiendo como urgentes o importantes. Todo ello sin un norte claro. Simplemente he estado tomando el pulso al nuevo cargo, entrevistándome con diferentes agentes (stakeholders) y detectando necesidades que surgían de esas entrevistas, de correos electrónicos o de conversaciones con otras personas del equipo VPEC.

Ahora ha llegado el momento de dotarle de sentido a este puzzle de piezas mas o menos sueltas, o engarzadas, que ha sido mi actividad desde febrero 2025.

Para ello he usado metodologías que explico a mis estudiantes en clase y que yo uso cuando necesito organizarme un mapa estratégico. Si quieres saber más detalles mira los dos libros (Bryson et al, 2014; Sinek, 2009) que dejo como referencias al final de este post.

El proceso ha sido el siguiente:

  • En el VPEC hemos elaborado un mapa de posibles proyectos a abordar. Cada uno de ellos tiene una ficha donde se describen aspectos como la motiviacion para el proyecto, la justificación, responsables etc. Esta información me permite saber si el proyecto cae en mi área de responsabilidad o en la de alguna de las personas que me acompañan en el equipo. No es una ficha terminada, sino un borrador en construcción que vamos retocando conforme vamos definiendo los proyectos que tienen más posibilidades de ser activados
  • He seleccionado ocho de ellos (en el futuro puede que alguno de estos proyectos muera y coja otros que vayan surgiendo). De esos,  seis tengo claro que son mi responsabilidad (los otros dos son un “por si acaso”). Luego he elegido tres para activar, que son a los que quiero dedicar atención preferente los próximos meses. Estos constituyen la parte central del mapa estratégico visual de Bryson et al (2014), donde se representa el “WHAT”
  • A continuación, me he dedicado a recolectar las acciones o tareas que he estado realizando estos tres meses. No me ha costado demasiado porque hago un informe de seguimiento semanal para mi vicerrector en el que le digo en qué tareas, relacionadas con el VPEC, he estado invirtiendo el tiempo y cuáles son las tareas que tengo previsto abordar la semana siguiente. Esto nos permite estar al tanto de los avances y corregir prioridades si fuese necesario. Este listado de tareas lo he organizado en la parte baja del diagrama (el HOW) y las he relacionado con flechas con los WHAT que había trasladado previamente
    • Algunos HOW están flotando en el vacío, sin conexión con ningún WHAT. Son tareas heredadas de proyectos de la legislatura anterior o soporte que doy a otras personas que lo necesitan de la universidad (aunque no estén en mi foco prioritario de responsabilidad/actuación)
    • Otros, a pesar de estar en el vacio, se relacionan con alguno de mis WHYs
  • Con un borrador de Whats y Hows, me he preguntado ¿por qué quiero hacer/hago estas cosas? ¿cual es la razón que justifica que me dedique a eso?. Y he empezado a dibujar la parte superior del diagrama donde están los WHYs
    • He estado iterando todo el proceso durante unos diez días, moviendo elementos, cambiando la relacion con los otros. La mayor parte del tiempo la he dedicado a pensar Whys y conectarlos entre si o con las otras partes del diagrama.
    • Al principio el proceso era un poco caótico, pero poco a poco las cosas van encajando y, al final, tengo un mapa que, al menos para mí, tiene cierta coherencia
  • Ahora es el momento de distribuirlo y contrastarlo con mi equipo y ver si se entiende, si se deja algo importante en el tintero, si sobra algo y, sobre todo, si sirve para sumar voluntades y alinear acciones.

Referencias:

  • Bryson, J. M., Ackermann, F., & Eden, C. (2014). Visual strategy. Strategy mapping for public and nonprofit organizations. Jossey-Bass.
  • Sinek, S. (2009). Start with Why: How Great Leaders Inspire Everyone to Take Action. Portfolio.

Visitas: 70

El sorprendente secreto detrás del ‘engagement’ laboral según Gallup

Permitidme ser crítico con esta entrada de Gallup Global Indicator: Employee Engagement – Gallup

Si no lo he interpretado mal, este gráfico pretende mostrar que el “engagement” (tal como lo mide Gallup, que dista muchísimo de como yo lo mediría basado en evidencia científica de lo que significa “engagement”) en US es ligeramente superior al mundo mundial. Y que las “best practice organizations” tienen un engagement excepcional respecto a la media.

Independientemente de que no comparta el modo de medir engagement, me resultaba interesante conocer cuáles son las “best practices” que permiten a las organizaciones impulsar el engagement. Por eso me he puesto a buscar cuáles son esas prácticas, es decir, cuáles son los criterios por los cuales pasas a estar en lisa de las “best practices organizations”.

Resulta que parece ser todo una tremenda (¿e impresentable?) tautología. Si no me equivoco, para estar en la lista The Gallup Exceptional Workplace Award | Apply lo que te piden es que tengas un alto engagement.

De modo que el grafico se interpreta de la siguiente manera:

Si estas en el grupo de las empresas con más engagement, medido con el Q12, el engagement promedio de ese grupo (es decir el Q12 promedio) es mayor que el engagement promedio del resto de organizaciones.

Es decir, como bien comentaban Les Luthiers, “de cada 10 personas encuestadas, 5 son la mitad”

Visitas: 15