Curso MOOC EDX Liderazgo y Comunicación en Equipos híbridos y remotos

#MOOC #remotework #liderazgo #teamwork #remoto #trabajoenequipo

En este programa de capacitación profesional incorporamos los siguientes cursos:

1) Trabajando en equipo en entornos presenciales, remotos e híbridos: Enlace a inscripción (disponible desde diciembre 2022-)
2) Liderazgo de equipos remotos: Enlace a inscripción (disponible desde noviembre 2022 -inicio curso marzo 2023-)
3) Habilidades de Comunicación interpersonal adaptada a equipos remotos: Enlace a inscripción (disponible desde noviembre 2022 -inicio curso mayo 2023-)

(versiones en inglés a partir de noviembre 2023)

Las competencias transversales (soft skills) son esenciales en prácticamente todos los puestos de trabajo actuales y complementan a las competencias técnicas (hard skills) para construir un perfil exitoso de las personas que abanderan/representan el talento de una organización.
Para este programa hemos seleccionado un conjunto de tres competencias transversales cruciales (Trabajar en equipo, Influir positivamente en el comportamiento de las personas del equipo y comunicarse de manera efectiva con ellas).
Este programa proporciona habilidades para trabajar en equipo en un entorno remoto, algo que ya es habitual en todas las instituciones y empresas y que cada vez lo será más.

Se sabe mucho sobre cómo usar estas competencias en entornos presenciales (y edX tiene ya moocs de esto). Sin embargo , existe un hueco en formación sobre cómo adaptar los comportamientos esenciales en cada competencia cuando el equipo trabaja remotamente.

Videos de presentación del programa: https://www.youtube.com/playlist?list=PL6kQim6ljTJvBTOz50HAlhxYRELxuK6L0

Visitas: 126

Depende. ¿De qué depende? De haber hecho la pregunta correcta

#EvidenceBased #InvestigaciónDocente

¿Qué es evidence-based?, dices mientras clavas en mi pupila tu pupila azul. Voy a aprovechar el resumen de un artículo de investigación en educación superior para dar una respuesta que sirva tanto para management en general, como para recursos humanos, como para dirección de operaciones, o para educación superior. Para cualquier campo donde alguien quiera tomar decisiones apoyándose en investigación en lugar de en intuición o moda.

Bernstein, D. A. (2018). Does active learning work? A good question, but not the right one. Scholarship of Teaching and Learning in Psychology, 4(4), 290–307. http://dx.doi.org/10.1037/stl0000124

En los años 50 el debate era “¿funciona la terapia?”, y la pregunta resultó ser inútil, porque la única respuesta posible es “depende”. Con el aprendizaje activo estamos en el mismo sitio: hay estudios que dicen que sí, otros que dicen que más o menos, y otros que no encuentran diferencias con la clase magistral. Bernstein propone que dejemos de preguntarnos si “funciona” y empecemos a preguntar : ¿qué tipo de aprendizaje activo, aplicado cómo, a quién, con qué nivel de intensidad y adherencia, produce qué tipo de resultados y durante cuánto tiempo?

El problema es que responder a ese tipo de preguntas es bastante difícil. Requiere diseños más complejos, muestras diferentes, seguimiento longitudinal, y una definición operativa de “funciona” que no sea la nota del examen de la semana siguiente. No es lo que la mayoría de los papers de docencia hacen (ni los de management).

Pero ese es precisamente el trabajo que debemos hacer: el que responde preguntas que importan de verdad.

Visitas: 26

¿Puede una IA hacer inferencia causal en tareas de economía?

Me hubiera gustado hacer esta reflexión sobre una tarea de “management” (gestión), pero no he encontrado material para ello.

El  trabajo que he encontrado compara sistemas de IA con humanos economistas  en una tarea real de inferencia causal aplicada. La pregunta era : estimar el efecto causal de la elegibilidad para DACA sobre la probabilidad de trabajar a tiempo completo entre personas nacidas en México, residentes en Estados Unidos, usando datos de la American Community Survey.

DACA es Deferred Action for Childhood Arrivals: un programa de EE. UU. implementado en 2012 que concedía a ciertas personas inmigrantes indocumentadas que habían llegado al país siendo menores una protección temporal frente a la deportación y autorización temporal de trabajo, siempre que cumplieran varios requisitos de elegibilidad. Entre ellos, el artículo menciona haber llegado antes de los 16 años, haber estado en EE. UU. desde el 15 de junio de 2007, no tener estatus legal a 15 de junio de 2012 y ser menor de 31 años en esa fecha

La comparación se organiza en tres condiciones experimentales, con distintas capacidades de decisión. En la Tarea 1, humanos e IAs reciben la pregunta y los datos brutos, y deben decidir casi todo: cómo construir la muestra, qué restricciones aplicar, cómo definir variables, qué diseño causal usar y qué especificación econométrica estimar. En la Tarea 2, el diseño principal ya viene fijado: deben comparar un grupo tratado de personas de 26 a 30 años con un grupo de control de 31 a 35 años, siguiendo una lógica de diferencias en diferencias antes y después de DACA. Aun así, siguen decidiendo aspectos como limpieza de datos, controles, efectos fijos y errores estándar. En la Tarea 3, además del diseño prescrito, reciben un dataset ya depurado, por lo que el margen de decisión  se concentra sobre todo en la especificación econométrica y la inferencia.

Esto hace que la tarea se parezca bastante a una investigación empírica real: no solo hay que producir una cifra, sino también traducir una pregunta en un diseño, escribir y depurar código, ejecutar análisis, revisar resultados y entregar un informe de replicación. En cada ejecución de IA, además, cada sistema debía generar código, guardar una versión limpia de los datos, documentar decisiones y producir un reporte en formato de paper. Por eso la tarea se parece bastante al tipo de trabajo que haría un doctorando o un investigador aplicado en economía empírica.

La tendencia central de las estimaciones obtenidas por las IAs y por los humanos es bastante parecida. Las medias humanas suelen ser algo más altas, mientras que las medianas de los modelos de IA suelen ser algo más altas. En la Tarea 1 Claude Code Opus 4.6, tiene estimaciones son bastante menores que las de humanos y que las de los dos sistemas Codex.

Cuando el artículo habla de una estimación de 5,3, se refiere al aumento de la probabilidad de trabajar a tiempo completo. Así, una estimación de 5,3 significa que ser elegible para DACA se asocia con un aumento estimado de 5,3 puntos porcentuales en esa probabilidad. Por ejemplo, si sin DACA la probabilidad fuera del 40%, con ese efecto estimado pasaría al 45,3%.

En la Tarea 1, las estimaciones humanas promedio se sitúan en torno a 5,3  y medianas de 3,0 y 2,6. Entre las IAs, GPT-5.4 obtiene una media de 4,3 y una mediana de 4,1; GPT-5.3-Codex, una media y mediana de 3,2; y Claude Opus 4.6 es una excepción, con una media y mediana de solo 0,4. Es decir, produce estimaciones centrales muy cercanas a cero.

El rango de resultados propuestos por humanos es mucho más amplio que en los modelos de IA:

  • Humanos no ponderados: mínimo −4,9 y máximo 66,0.
  • Humanos ponderados: mínimo −4,9 y máximo 66,0.
  • GPT-5.4: mínimo 1,4 y máximo 7,0.
  • GPT-5.3-Codex: mínimo −3,8 y máximo 10,9.
  • Opus 4.6: mínimo −4,3 y máximo 7,2.

En la Tarea 2, los humanos se sitúan en medias de 4,5, con medianas de 3,3. GPT-5.4 da una media de 4,5 y mediana de 4,7; GPT-5.3-Codex, 4,1 y 4,5; y Opus 4.6, 3,8 y 4,9. Aquí el resultado importante no es solo que las cifras sean parecidas, sino que la dispersión baja de forma apreciable en los modelos de IA cuando se les reduce la libertad para elegir el diseño.

En la Tarea 3, con diseño prescrito y datos ya limpiados, la similitud en la zona central sigue siendo alta. Los humanos muestran una media de 4,5, una mediana de 5,0. GPT-5.4 tiene una media de 3,1 y mediana de 5,2; GPT-5.3-Codex, 5,4 y 6,0; y Opus 4.6, 4,8 y 5,8. Proporcionarles un dataset ya depurado no reduce mucho más la dispersión respecto a la Tarea 2.

Este trabajo no permite decir si las estimaciones de la IA son mejores o peores que las humanas en términos de cercanía a una verdad conocida, porque no existe un benchmark  del efecto causal verdadero con el que comparar. Lo que sí muestra es que las estimaciones humanas presentan dispersión mucho más amplia, mientras que la IA, aunque también tiene variabilidad ante diferentes ejecuciones, suele generar distribuciones menos dispersas.

Una menor dispersión no debería interpretarse automáticamente como una señal de mayor calidad. Un procedimiento completamente determinista produciría todavía menos dispersión. La cuestión relevante no es solo cuánto varían los resultados, sino si el proceso analítico captura bien el problema causal, evita sesgos importantes y produce inferencias convincentes. En ese punto, el estudio aporta evidencia indirecta, pero no una validación definitiva.

La segunda parte del artículo intenta medir la calidad, no solo las diferencias en los resultados. Para ello, cada trabajo es evaluado por modelos de IA que actúan como revisores y comparan, dentro de un mismo grupo, cuatro respuestas distintas: una humana y tres generadas por IA (una por cada modelo). La evaluación sigue una plantilla , centrada en aspectos como la construcción de la muestra, la definición de tratamiento y control, la variable de resultado, la especificación econométrica, la plausibilidad de los supuestos de identificación, el uso de covariables y efectos fijos, la robustez, la inferencia y la posible existencia de fallos graves. Además, para cada respuesta, el revisor debe identificar fortalezas, riesgos, correcciones mínimas necesarias y una puntuación final. Es decir, es una valoración relativa de la  metodológica y técnica de cada análisis frente a los demás. El ranking es muy estable entre revisores: primero Codex GPT-5.4, segundo Codex GPT-5.3-Codex, tercero Claude Code Opus 4.6 y cuarto los investigadores humanos. Ese es probablemente el resultado más llamativo del estudio, aunque también el más discutible, porque la evaluación final depende de revisores de IA y no de revisores humanos independientes.

La conclusión general del trabajo es que la IA ya puede realizar una parte del flujo de trabajo de investigación empírica en economía y que, al menos en este entorno, puede escalar la producción de análisis sin una pérdida de calidad media. 

Referencia:

Grundl, S. (n.d.). A Comparison of Agentic AI Systems and Human Economists. Retrieved https://claude-code-economist.com/data/paper.pdf

ACLARACION adicional, para no crear falsas ilusiones:

Lo que yo interpreto (igual estoy siendo demasiado crítico con el estudio) es que, si a un algoritmo le pasas una tarea probabilística para realizar, la hará con menos dispersión que si se la pasas a una persona. Punto.

Si la calidad la mides como “adherencia” a las normas o a la rúbrica establecida, un algoritmo jamás será batido por una persona. Punto.

Este trabajo (en mi opinión) no sirve para decir si un algoritmo es mejor que una persona para esta tarea. Sino si un algoritmo funciona como se espera que funcione un algoritmo. Y la respuesta es que sí.

Visitas: 16

Sincronicidades: capacidad de acción, propósito, valores y competencias

Estas semanas he estado expuesto a podcasts, lecturas, artículos científicos… sobre los cuatro temas que he puesto en el título de la entrada (agencia/capacidad de acción, propósito, valores y competencias). Puedes llamarlo casualidad, sincronicidad, o  sesgo de confirmación: llevo tiempo pensando en algo y mi cerebro empieza a capturarlo en todas partes. Cuatro conceptos que llevan semanas rondándome y que empiezan a parecerme un sistema.

Te he de confesar que “agencia” en castellano me suena fatal. No me resulta nada intuitivo, pese a que en mis círculos cercanos se esté convirtiendo en una moda el usar esta palabra. Sin embargo, el concepto en inglés (agency) entronca con uno de los temas que ha sido foco principal en mis líneas de investigación y docencia desde hace décadas: la capacidad de actuar de forma autónoma, de ser el origen de tus propias decisiones, de no ser simplemente el resultado de las circunstancias. Tengo pendiente interiorizarlo de verdad, encontrar la manera de pensarlo en castellano sin que me rechine. Yo prefiero usar en castellano dos palabras “capacidad de acción”, no sé si algún día me acostumbraré a este calco del inglés (que no estoy seguro de que sea acertado).

Mientras iba rumiando mis paranoias contra el término “agencia”, me he tropezado con dos libros y un artículo.

Geniotipos, de Tony Struch, que va de talento. El foco del libro no son exactamente las competencias, aunque el talento tiene relación con ellas. El libro vincula talento y propósito, como si el talento sin propósito fuera un motor sin dirección.

Ikigai, de Francesc Miralles, entra directamente por el propósito, y de ahí me ha llevado a escuchar varios de sus podcasts, y de él a Alex Rovira, todos circulando alrededor de la misma pregunta: para qué estás aquí, qué tiene sentido para ti.

Hines et al (2026)  rastrean la influencia que el libro Self-Help de Samuel Smiles (1859) ejerció sobre Sakichi Toyoda y, de ahí, sobre toda la cultura Toyota y el mundo Lean. El libro, de hace 165 años, habla de carácter, perseverancia, propósito de contribuir a la sociedad y desarrollo personal como responsabilidad individual.

Por último, una página web de McKinsey, “Do you know your life’s purpose?”, donde proponen que el propósito se puede mapear sobre nueve valores. Las categorías que usan no me convencen del todo, y mucho menos el modo en que las organizan. Pero me ha llamado la atención que articulan su marco de  propósito en torno a “agency”.

De todo esto intuyo que los valores/talento deben orientar el propósito, que el propósito necesita del desarrollo de competencias para que no fracase el aterrizarlo. Pero es una intuición, aún estoy dándole vueltas.

 

Referencias:

  • Hines P, Liker JK, Powell DJ (2026), “The book that changed the world?”. International Journal of Lean Six Sigma, Vol. 17 No. 3, pp. 1067–1079. https://doi.org/10.1108/IJLSS-05-2026-377
  • McKinsey & Company (2020). Do you know your life’s purpose? https://www.mckinsey.com/capabilities/people-and-organizational-performance/our-insights/do-you-know-your-lifes-purpose
  • García, H., y Miralles, F. (2021). Ikigai: Los secretos de Japón para una vida larga y feliz (ed. actualizada). Urano. ISBN: 9788418714078
  • Estruch, T. (2022). Geniotipo: Descubre al genio que hay en ti. Diana (Grupo Planeta). ISBN: 9788418118920

Visitas: 5

Un gesto cotidiano de la oficina que se ha convertido en una competencia necesaria y escasa en remoto

¿Cuántas veces al día (o la semana) se te acerca un compañero-a para preguntarte algo que puedes resolverle en diez segundos?

Yo he tenido que parar a pensarlo, en los primeros dos días de esta semana yo he usado el “comodín del compañero” una vez y una vez lo han usado conmigo. Igual es que cuando yo estoy en el campus, no lo están mis compañeros y al revés, y todos nos hemos acostumbrado a preguntar por whatsapp, correo, teams … y ya no interrumpimos en persona.

En remoto, es necesaria una habilidad (o competencia) que el trabajo presencial ocultaba porque nunca hizo falta desarrollarla: anticipar qué vas a necesitar y saber dónde está archivada la información/datos que necesitas antes de quedarte bloqueado.

No es un problema técnico. Es una competencia. Y probablemente no sea tan común como asumimos. En presencial, esto es/era invisible porque se puentea.

Pero puede ser el origen de ineficiencias ocultas en los equipos remotos: no falta herramienta ni conexión, falta autonomía para acceder a la información porque no se anticipa, no se planifica, no hay protocolos de archivo-recuperación-gestión del conocimiento, no se siguen los protocolos… Y esa competencia, que hasta ahora hemos dado por supuesto que todo el mundo tiene, quizás debemos empezar a diagnosticarla, ver su impacto y, si es necesario, trabajar en desarrollarla.

 

Visitas: 3

Zotero. Cómo quitar una etiqueta de varias referencias a la vez

En Zotero tengo varias referencias (cada una con muchos tags). En las que tenga seleccionadas en un momento dado, quiero quitar UNA tag (por ejemplo “/ToRead”), solo esa tag. Pero para TODAS las referencias seleccionadas y no para las demás en la pantalla, ¿es posible? ¿Como?

Método 1: Shift + arrastrar

  1. Selecciona las referencias en el panel central
  2. Mantén Shift y arrastra la selección sobre /ToRead en el panel de etiquetas (abajo izquierda)
  3. Zotero la quita de todas las seleccionadas

Limitación: solo funciona si todas las seleccionadas ya tienen esa etiqueta.


Método 2: Asignar color + tecla numérica (más robusto)

  1. Clic derecho sobre /ToRead en el panel de etiquetas > Asignar color
  2. Ponle el número 1 (o cualquier otro libre)
  3. Selecciona las referencias y pulsa 1 en el teclado: alterna la etiqueta (quita si la tienen, pone si no la tienen)

Este segundo método es más práctico si vas a hacer esta operación con frecuencia. Y luego puedes quitar el color asignado si no lo quieres permanente.

Visitas: 12

Framework para el analisis de las competencias a formar en la univesidad

Que el mundo profesional ha cambiado en los últimos años está fuera de toda duda. La pandemia de COVID-19 y la irrupción de la IA generativa se han sumado a otros cambios que ya se estaban manifestando.
En este contexto, creo que es necesario replantear qué competencias/skills necesitamos formar en nuestros graduados. Quizás no sean necesarios cambios (lo dudo); quizás haya que añadir cosas nuevas; quizás algunas cosas hayan pasado a ser obsoletas. Pero no es trivial dar respuesta a las preguntas: ¿debemos actualizar la formación que ofrecemos? ¿en qué sentido? 
 
Llevo casi dos años dándole vueltas a esto, pero aún no he logrado concretar un marco de trabajo. Entre otras cosas, estaba esperando encontrar alguna investigación que explicara cómo ha cambiado el trabajo profesional en algunas profesiones debido al teletrabajo y otras formas de flexibilidad, la inteligencia artificial generativa y demás condiciones actuales.
 
Hoy he decidido crearme un “framework” que no estoy seguro de que me lleve a buen puerto, pero lo comparto, lo intento poner en marcha y luego os comento si me ha funcionado o no.
 
Paso 0. Decido centrarme en la formación para el trabajo y en ver las necesidades de la persona que usará lo aprendido para ser una profesional. Podría haber elegido otro enfoque, pero creo que este me va a resultar más sencillo y luego por abstracción intentar generalizar hacia otros perfiles.
 
Paso 1. Elegir un grado para centrarme en él. 
Pensar en qué cambios son necesarios a nivel global me resulta demasiado complicado, ya que el impacto del nuevo contexto puede ser muy distinto en cada profesión. Igual luego no lo son tantos, pero me ha parecido más sencillo ir de lo particular a lo general que al revés.
 
Paso 2. Elegir una ocupación dentro de las que se suponen más comunes afines al grado y centrarme en ella, para luego ir abriendo el abanico a algunas ocupaciones parecidas y ver si hay cambios sustanciales.
 
Paso 3. Identificar cuáles son las competencias en las que estamos formando actualmente. Es un paso sencillo porque la “verdad” es lo que consta en las memorias de verificación de cada título.
 
Paso 4. Comparar el resultado del paso 3 con las propuestas oficiales de la Unión Europea. 
yo he decidido usar como marco de referencia ESCO. Quizás haya otros marcos mejores, pero este es el que conozco y, en teoría, debería ser un marco sólido.
No obstante, las propuestas de ESCO están ancladas en el pasado. En el mejor de los casos, son buenas propuestas para hace 5 años y tendremos que reflexionar si siguen vigentes o no.
 
Paso 5. Integrar los resultados de los Pasos 3 y 4 y reflexionar sobre qué cambios son necesarios.
La parte de reflexión la tengo un poco débil. En un mundo ideal, donde las empresas supieran de verdad en qué ha cambiado realmente lo que sus profesionales necesitan, el informante relevante sería la empresa. Pero no estoy muy seguro de que haya alguna que tenga la certeza absoluta de qué es lo que realmente necesitan hoy, ni de qué necesitarán dentro de 5 años. Porque la IA generativa (que es el factor de contexto más influyente actualmente) está en pleno “hype” y poca gente puede tener certeza de dónde, cuándo y cómo va a acabar.
Independientemente de quiénes sean los informantes (ya conseguiré aclararme o usar “muestras de conveniencia” o pedir opinión a mis compañeros académicos para que hagamos el diseño desde nuestras “torres de marfil”), las preguntas clave son:
  • ¿Qué están aprendiendo ahora?
  • ¿Qué deberían dejar de aprender porque no es útil?
  • ¿Qué cosas nuevas deberían empezar a aprender porque las necesitarán para ser buenas profesionales?

Caso de uso:

(en construcción)

GIOI
cuatro perfiles:
 
Referencias:
European Commission. Directorate General for Employment, Social Affairs and Inclusion. (2019). ESCO handbook: European skills, competences, qualifications and occupations. Publications Office. atlasTI-ART-639 soft Skills. https://data.europa.eu/doi/10.2767/934956

Visitas: 12

AIR Framework: documentar el uso de IA en 5 minutos (y necesitar varias semanas para justificarlo)

Marco AIR para uso responsable de IA: útil pero revelador de nuestras inconsistencias 

 Young, J. (2026). AIR: AI in Research – A framework for transparent and responsible AI use mapped to the research process (Version 1). figshare. https://doi.org/10.6084/m9.figshare.31268020.v1

Creo que es muy útil para resolver algunas de las dudas que surgen en mis charlas sobre IA generativa en Research.

Con esta tabla, en menos de 5 minutos, puedes informar con transparencia sobre el uso que has hecho de la IA y las verificaciones que has realizado (la última columna) para estar seguro de que lo etiquetado como riesgo moderado no representa ningún “concern” para la validez de tu trabajo.

Intentar justificar que lo etiquetado como riesgo elevado no te afecta podría dar lugar a un artículo por cada una de las casillas de la columna A4.

Y este es el talón de Aquiles de todo esto… si alguien te obliga a demostrar punto por punto que estás exento de riesgos y sesgos, igual necesitas uno o dos años de trabajo para justificar adecuadamente cualquier artículo… incluso los que has escrito completamente “a mano” sin ayuda de ninguna IA generativa.

Es un poco sorprendente el doble rasero que se aplica, no pidiendo ninguna justificación si lo haces tú solito (proyectando todas tus torpezas y sesgos implícitos), y abrumándote con justificaciones si te apoyas en IA generativa. No, si no está prohibido que la uses, pero si dices que la usas, debes invertir una burrada de horas de trabajo para justificar “adecuadamente” que el uso ha sido correcto.

¿Alguien me ha preguntado alguna vez si he usado correctamente SPSS en los artículos que he escrito en los últimos 30 años? ¡Pero si, las veces que intento adjuntar la sintaxis, los revisores me dicen que quite esa información porque les “despista” y hace innecesariamente largo el artículo!

Young, J. (2026). AIR: AI in Research – A framework for transparent and responsible AI use mapped to the research process (Version 1). figshare. https://doi.org/10.6084/m9.figshare.31268020.v1

Visitas: 85

La autocensura del investigador: cómo el sistema de sexenios convierte a investigadores apasionados en burócratas estratégicos

Ya he completado las tareas. Tanto la “obligatoria” de presentar los papeles en ANECA, como la voluntaria de hacer una reflexión personal (Rellenar sexenios de investigación: mi propuesta para transformarlo | Blog de Juan A. Marin-Garcia).

Voy a compartir mi reflexión personal del proceso, si me ha servido para algo y las sensaciones que me han ido provocando las diferentes decisiones que he ido tomando.

Empecemos por algunos hechos:

  • Tengo mucha producción. Me refiero a que tengo más de 7 posibles aportaciones (5 principales más dos sustitutorias). Eso es una ventaja porque me permite elegir. Es, al mismo tiempo, un fastidio porque me obliga a perder el tiempo tomando las decisiones sobre qué descartar. Decisiones que no son sencillas porque, al menos, hay 13 o 14 artículos con claro potencial. Luego hay varios artículos más que claramente no iban a ser candidatos -porque son protocolos y para mí confluyen con una de las aportaciones principales, o son de áreas ajenas al management o siempre fueron “artículos menores” que me interesaba escribir para dar cauce a una idea o para forzarme a aprender algo con rigor-.
  •  Algunas de las circunstancias reductoras de puntuación afectan directamente a varios de mis trabajos.

Y pasemos ahora a mis inferencias, opiniones y percepciones. Para mí, estos son los “takeaways” que me llevo del proceso de reflexión, siendo consciente de que son solo el modo en que veo el asunto y, sin duda, están sesgados.

Algunos de los que yo considero mis mejores trabajos por lo que ha supuesto escribirlos, la contribución que yo creo que tienen en la academia y en la sociedad y que, además, han sido de los más citados (no me creo que las citas indiquen nada, pero supongo que para mucha gente este es un indicador imprescindible), no los puedo poner como meritos porque sería un suicido (directamente me van a poner un cero porque cumplen alguno o varios de los criterios de minoración de puntuaciones). Por ejemplo:

  • Marin-Garcia, J. A., Vidal-Carreras, P. I., & Garcia-Sabater, J. J. (2021). The Role of Value Stream Mapping in Healthcare Services: A Scoping Review. International Journal of Environmental Research and Public Health, 18(3), 951. https://doi.org/10.3390/ijerph18030951

No me apetece jugármela a tener que defender mis méritos en una reclamación, de modo que voy a ser cauto y conservador y elegir como méritos los que creo que van a gustar al panel, no los que yo creo que realmente son mis mejores trabajos. Me he permitido la licencia de ser “irreductible” en una de las sustitutorias, donde he puesto una aportación de investigación sobre aprendizaje. Porque desde el primer sexenio me impuse el compromiso de poner siempre al menos una investigación docente en mis aportaciones:

  • Aznar-Mas, L. E., Atarés Huerta, L., & Marin-Garcia, J. A. (2021). Students have their say: Factors involved in students’ perception on their engineering degree. European Journal of Engineering Education, 46(6), 1007–1025. https://doi.org/10.1080/03043797.2021.1977244).

De las 5 aportaciones principales, yo solo habría mantenido una o dos de ellas (y también habría puesto otra en lugar de una de las sustitutorias). ¿Por qué no lo he hecho? Porque me “he cagado”. Tengo la seguridad de que no lo iban a entender en la comisión y que peligraba el sexenio… que no pasa nada, ya tengo 3 sexenios, y un sexenio son solo 140 euros al mes de extra en la nómina. Es triste, pero me he vendido por 140 euros de mierda (que, además, no me hacen falta para llegar a final de mes, esa enorme suerte tengo).

¿Cuales hubiera puesto yo de no haberme “cagado”? Sin duda, habría puesto al menos dos contribuciones sobre las cosas que hicimos durante la época de COVID, en la que nos volcamos  a dedicar horas y todos nuestros conocimientos para apoyar a los hospitales. A los que nos quisieron como colaboradores, y hasta que nos obligaron a dejar de colaborar con ellos desde las altas esferas (bueno, nunca les hicimos caso y seguimos desde la clandestinidad 😉 ). Gracias a ello, recibimos el premio “Luis Merelo y Más” del Colegio de Ingenieros Industriales de la Comunidad Valenciana. Muchas de las cosas que aprendimos entonces también las pudimos aplicar durante la catástrofe de la Dana del 2024. Como representativo de esta línea hubiera elegido estos dos trabajos:

  • Marin-Garcia, J. A., Garcia-Sabater, J. J. P., Ruiz, A., Maheut, J., & Garcia-Sabater, J. J. P. (2020). Operations Management at the service of health care management: Example of a proposal for action research to plan and schedule health resources in scenarios derived from the COVID-19 outbreak. Journal of Industrial Engineering and Management, 13(2), 213. https://doi.org/10.3926/jiem.3190
  • Redondo, E., Nicoletta, V., Bélanger, V., Garcia-Sabater, J. P., Landa, P., Maheut, J., Marin-Garcia, J. A., & Ruiz, A. (2023). A simulation model for predicting hospital occupancy for Covid-19 using archetype analysis. Healthcare Analytics, 3, 100197. https://doi.org/10.1016/j.health.2023.100197

Además, habría puesto mis artículos sobre guías para la difusión de la ciencia. Sinceramente creo que son de las cosas más útiles e interesantes que he hecho (aunque sea yo el único que piense eso):

  • Marin-Garcia, J. A. (2021). Three-stage publishing to support evidence-based management practice. WPOM-Working Papers on Operations Management, 12(2), 56–95. https://doi.org/10.4995/wpom.11755
  • Marin-Garcia, J. A., & Alfalla-Luque, R. (2021). Teaching experiences based on action research: A guide to publishing in scientific journals. WPOM-Working Papers on Operations Management, 12(1), 42–50. https://doi.org/10.4995/wpom.7243
  • Marin-Garcia, J. A., Garcia-Sabater, J. P., & Maheut, J. (2022). Case report papers guidelines: Recommendations for the reporting of case studies or action research in Business Management. WPOM-Working Papers on Operations Management, 13(2), 108–137. https://doi.org/10.4995/wpom.16244
Sobre investigación docente habría elegido este, porque realmente es el trabajo que más transforma el aprendizaje de 60 futuros directivos-as cada año:
  • Marin-Garcia, J. A., Garcia-Sabater, J. J., Garcia-Sabater, J. P., & Maheut, J. (2020). Protocol: Triple Diamond method for problem solving and design thinking. Rubric validation. WPOM-Working Papers on Operations Management, 11(2), 49–68. https://doi.org/10.4995/wpom.v11i2.14776

También habría incluido alguna aportación representativa de mi línea de investigación en Gestión de Recursos Humanos. Mi solicitud ha quedado demasiado sesgada hacia la Dirección de Operaciones. Por ejemplo habría incluido:

  • Marin-Garcia, J. A., Bonavia, T., & Losilla, J. M. (2020). Changes in the Association between European Workers’ Employment Conditions and Employee Well-being in 2005, 2010 and 2015. Int J Environ Res Public Health, 17(3), 1048. https://doi.org/10.3390/ijerph17031048

Resumiendo, no me he atrevido a dejarme llevar por la interpretación que yo hago de cuál creo que es el espíritu de la norma. He preferido autocensurarme y hacer una solicitud estándar, del montón, doblegando mi espíritu crítico, mi creatividad, y mi compromiso con una pasión para encajar en el estrecho corsé de lo que creo (sin ninguna certeza) que se puntúa en mi campo científico. Esto me deja una profunda desazón y vergüenza. No ha sido una experiencia agradable el tener que pasar por esto. Y me deja preocupado. Si algo que no necesito es capaz de pervertir mi comportamiento, y hacer que me venda y me aleje de mis creencias solo por conseguir una métrica, estamos realmente “jodidos” en la academia.

Si no tuviera la seguridad de que me van a  sobrar aportaciones y que, por lo tanto, puedo dedicarme a investigar lo que creo, en conciencia, que es lo que debo investigar, habría tenido una enorme presión por dejar de hacer las cosas en las que creo, para dedicar mi escaso tiempo solo a las cosas que me van a puntuar. Por suerte, yo abordo todo lo que hago como un proyecto de publicación de artículos, lo que me genera un volumen alto de opciones y permite que, cosas que sé desde el principio que jamás serán puntuables, puedan tener su oportunidad de existir y ser encontradas por potenciales lectores.

Mientras escribo esta entrada, me ha llegado al mi bandeja de entrada este anuncio de publicación de artículo:

  • Baruch, Y., & Budhwar, P. (n.d.). Impact and management studies: Why making practical impact is not a core academic expectation. European Management Review. https://doi.org/10.1111/emre.70051
Ha sido providencial porque aborda muchas de las cosas que yo he estado pensando estas dos últimas semanas. Os dejo algunos apuntes a modo de trailer:
 
El artículo alerta sobre la creciente presión gubernamental para que la investigación demuestre un impacto práctico inmediato, lo que está erosionando la función fundamental de las universidades. Esta exigencia representa una ruptura con el modelo de universidad basado en la autonomía para la búsqueda libre del conocimiento.

El problema es tanto conceptual como metodológico. Por un lado, la naturaleza misma del trabajo académico en ciencias sociales genera impacto de forma indirecta y diferida: los académicos transforman la sociedad a través de sus estudiantes y del conocimiento que estos llevan al mundo profesional, un proceso cuyo valor se manifiesta a largo plazo. Por otro lado, la medición del impacto carece de criterios válidos y fiables, siendo prácticamente imposible establecer una relación causal directa entre una investigación específica y cambios sociales u organizacionales concretos.

Los autores no rechazan el valor del impacto práctico, sino su imposición como criterio central de evaluación académica. La creación de conocimiento, el rigor intelectual y la libertad académica deben constituir el “imperativo” de la universidad, mientras que la aplicación práctica inmediata puede ser un resultado deseable pero no una obligación. Invertir esta prioridad, convirtiendo el impacto como motor principal de la actividad académica, supone desviar recursos intelectuales de la generación de conocimiento original hacia la demostración de utilidad inmediata, comprometiendo así la esencia misma de la institución universitaria.

 
Universidad de Cádiz: Sexenios 2025 – Área de Biblioteca

Visitas: 151

What is learning in the age of generative AI? From panic to evidence

I will be presenting this research at the upcoming XVII International Workshop ACEDEDOT – OMTECH 2026, taking place in Almería, Spain, from March 12-14, 2026:

This communication presents an autoethnographic reflection. Building on four fundamental premises about the function of Spanish public universities and the established mechanisms of human learning, the author documents his personal journey from initial uncertainty to the design of a systematic work plan. The study focuses on understanding the current scientific consensus on how learning is consolidated in the brain and exploring the possibilities of generative AI to enhance this process in the university context. Drawing on the work of Héctor Ruiz Martín, a work plan is designed that combines recommendations from educational neuroscience with the Feynman method and the EPLEDRE model, including spaced reading, creation of sketchnote-type graphic schemes from memory, and public communication of the knowledge constructed. The communication shares the first graphic schemes developed and reflects on the author’s dual position as university teacher and administrator, facing both his own methodological uncertainties and institutional expectations for strategic guidance. It questions the “collective panic” surrounding the emergence of generative AI in universities and the pressure to make quick decisions without sufficient reflection. It proposes replacing reactive urgency with a deliberate process of calm, evidence-based reflection and pilot experimentation, recognizing that in contexts of accelerated change, it is preferable to miss some “trains” rather than make biased decisions under collective amygdala hijacking

Keywords: Learning; autoethnography; generative artificial intelligence; university learning; educational neuroscience; teaching transformation

Learning; autoethnography; generative artificial intelligence; university learning; educational neuroscience; teaching transformation

Visitas: 31

Rellenar sexenios de investigación: mi propuesta para transformarlo

Este año me toca presentar la solicitud para el sexenio de investigación. La experiencia de las tres veces anteriores fue frustrante, no por el resultado (conseguí el informe favorable directo en las tres ocasiones), sino por la sensación de pérdida de tiempo en una actividad que no añadía absolutamente nada de valor (ni a mí ni a la sociedad).

Ahora voy a intentar que sea diferente; no sé si lo conseguiré, porque los sistemas pensados para “certificar” la calidad, y no para “promover” la calidad, no ayudan demasiado y tienen una pasmosa capacidad para convertir las tareas en “No Valor Añadido, No Evitable”.

¿Qué es lo que me planteo?  Aprovechar que voy a hacer una mirada retrospectiva a mis publicaciones y reflexionar sobre el impacto social, la contribución al progreso del conocimiento y el impacto científico para decidir qué cosas tengo que cambiar en el futuro.

El principal problema que anticipo es que los indicadores que tendré disponibles no me darán ninguna información relevante para tomar decisiones.

Por ejemplo, aunque se me hubiera ocurrido etiquetar con la TAG #sexeniosjamgupv2025 todas las entradas que he hecho en las diferentes redes sociales, ¿para qué me sirve ver el número de “likes” en linkedin, Facebook, X o Bluesky? ¿Realmente me dice algo sobre cómo mejorar el tipo de investigación que hago?

Supongo que podría decir algo parecido de las citas, ¿que no me citen (o que me citen) significa que realmente no (si) se han leído mi trabajo?

Y si no me sirven los indicadores disponibles, ¿cómo puedo tomar decisiones basadas en evidencia y no usar autoengaños para justificarme ante mí mismo?

Pues este tipo de cosas son las que quiero darles algunas vueltas las próximas semanas. Si no aclaro nada, esta edición de la solicitud de sexenios habrá sido, una vez más, una pérdida de tiempo. Si saco alguna conclusión, tendré que agradecer a ANECA por obligarme a invertir mi tiempo en preparar una solicitud que ha desencadenado un proceso beneficioso.

https://guiasbib.upo.es/convocatoria_sexenios/portada

Visitas: 89