1) Trabajando en equipo en entornos presenciales, remotos e híbridos: Enlace a inscripción (disponible desde diciembre 2022-) 2) Liderazgo de equipos remotos: Enlace a inscripción (disponible desde noviembre 2022 -inicio curso marzo 2023-) 3) Habilidades de Comunicación interpersonal adaptada a equipos remotos: Enlace a inscripción (disponible desde noviembre 2022 -inicio curso mayo 2023-)
(versiones en inglés a partir de noviembre 2023)
Las competencias transversales (soft skills) son esenciales en prácticamente todos los puestos de trabajo actuales y complementan a las competencias técnicas (hard skills) para construir un perfil exitoso de las personas que abanderan/representan el talento de una organización. Para este programa hemos seleccionado un conjunto de tres competencias transversales cruciales (Trabajar en equipo, Influir positivamente en el comportamiento de las personas del equipo y comunicarse de manera efectiva con ellas). Este programa proporciona habilidades para trabajar en equipo en un entorno remoto, algo que ya es habitual en todas las instituciones y empresas y que cada vez lo será más.
Se sabe mucho sobre cómo usar estas competencias en entornos presenciales (y edX tiene ya moocs de esto). Sin embargo , existe un hueco en formación sobre cómo adaptar los comportamientos esenciales en cada competencia cuando el equipo trabaja remotamente.
He comparado la respuesta de Claude-sonnet-4 y las de 4 grupos de estudiantes de máster (5 personas en cada grupo) con un caso que he preparado como diagnóstico inicial para comprobar las competencias de mis estudiantes el primer día de clase.
Mis estudiantes han estado trabajando 2 horas sobre un caso de 5 páginas donde su tarea estaba descrita en un párrafo y el resto era información de contextualización.
El Prompt usado con Claude-sonnet-4 en poe.com era simplemente el párrafo de descripción de la tarea a realizar sin ningún contexto adicional (ni de nivel de estudios, ni de contexto… nada).
“resuelve este caso “”Formas parte de un proyecto que pretende alinear el uso de Inteligencia Artificial (IA) con los valores y objetivos estratégicos de la UPV, de modo que la IA ayude a construir en lugar de minar el futuro que queremos ser. Como grupo, debéis manifestar vuestro punto de vista, como estudiantes universitarios, sobre cómo percibís la IAgen, explorar los problemas o inquietudes que os genera en los diferentes usos o funciones en las que os afecta como estudiantes en la universidad y clasificarlos/filtrarlos. Para acabar proponiendo un listado de recomendaciones (o guías) de uso que sugerís para resolver las causas que originan los problemas que consideráis como principales y un plan para la implementación de esas recomendaciones.”””
Todos los grupos de estudiantes, en lugar de hacer unas guías para estudiantes, han hecho recomendaciones para la universidad o sus equipos directivos. Claude-sonnet-4 ha cometido exactamente el mismo error en la primera iteración. No obstante, su informe ha sido mucho mejor que el de cualquiera de los grupos.
Le he pedido a la IA una segunda iteración: “las recomendaciones que has dado son para la institución, no has respetado la tarea que era crear recomendaciones para los estudiantes. Por otra parte, ajusta el reporte al modelo triple diamante”. En este caso ha clavado las recomendaciones, aunque su interpretación de lo que era el “framework” de triple diamante dejaba mucho que desear, pero le hubiera puesto un 5 o un 6 de nota a ese ejercicio (los ejercicios de mis estudiantes no creo que pasen de un 2 o un 3, pero a ellos no les he dado la oportunidad de repetirlo).
Conclusión:
Cuando les pido a mis estudiantes, a PRINCIPIO de curso que resuelvan un caso y les valoro en base a los resultados de aprendizaje que esperaría que tuvieran a FINAL de curso, la IA generativa les da “mil vueltas” (o por lo menos una decena).
Lo interesante aquí es qué pasará al final del curso cuando mis estudiantes hayan superado los resultados de aprendizaje esperados. La IA generativa no mejorará su nota de 5-6 (salvo que estemos ante un nuevo modelo), entonces creo que serán mis estudiantes los que le darán mil vueltas a la IA generativa.
Hoy se me ha cruzado un artículo que he leído en diagonal, saltándome toda mi GTD-disciplina-“heiunka” del día, alimentando mi procrastinación. Pero dejando de lado que se va a hundir el indicador de Volumen y el de Secuencia de mi OEE personal, un par de párrafos me han resultado útiles.
Estos párrafos hablan de los tres elementos que generan esperanza (visión compartida de un futuro ilusionante; autoconfianza; resiliencia). Lo que he pensado yo es que la esperanza incita la acción. Si queremos transformar nuestra docencia (o cualquier otra función o proceso en una organización), necesitamos no solo pensar qué hacer (que ya es una acción), sino ponerlo en práctica superando las barreras que haya y echar mano de la resiliencia cuando las cosas no salen como esperamos (si es que no salen como esperamos). Esto es complicado cuando la cultura imperante (el discurso recurrente cada vez que nos cruzamos con alguien en un pasillo, una fotocopiadora, una mesa de cafetería…) es “desesperante” además de desesperanzada. Ya llegamos tarde, pero mejor tarde que nunca, para cambiar el chip todas aquellas personas con una visión ceniza que además se dedican a contagiarla en cada encuentro con otras personas.
Visión compartida – Creer que es posible superar las circunstancias actuales
Métodos conocidos – Saber cómo llegar a las metas con prácticas apropiadas
Motivación colectiva – Tener la fuerza para resistir las dificultades juntos
La cita que ha originado esta reflexion:
“Katina Sawyer and Judy Clair (2022) outline the myriad ways through which hope plays a role in organizations. Their research can be broadly applied to the way that hope operates not only in the workplace, but also in communities organized by nationhood. They explain that hope is made up of three parts. First, organizational members need to have a shared vision for a hopeful future, as part of everyday conversation — they must believe that it is possible to move beyond their current circumstances and achieve more desirable outcomes. Second, organizational members have to believe that they know how to get to their goals via methods and practices that they deem appropriate. Goal achievement will not be straightforward; setbacks will happen and doubt will arise. And third, the organization must embody a shared sense of motivation toward their goals. When times get tough, hopeful organizations believe that they have what it takes to weather the storm. They return to the shared vision and see the relevance of sticking together.
However, it is easy to make the point that hope can backfire. A collective belief of hope is only positive when making progress toward its promises seems realistic. But when events appear to throw things off track, there’s a similar emotional contagion, but in a negative direction — when negative emotions reign, organizations become hopeless and grow increasingly more dull and de-energized.” (Seijts et al 2025)
Referencias:
Seijts, G., Opatska, S., Rozhdestvensky, A., & Hunder, A. (2025). Holding onto the victory after the victory: Leadership lessons from the war in Ukraine for recovery and positive change. _Organizational Dynamics_, 101195. https://doi.org/10.1016/j.orgdyn.2025.101195
Extended Title: Action research on designing materials, protocol, and feasibility of a complex intervention to foster critical thinking and apply the triple diamond framework in group decision-making.
This project aims to enhance students’ critical thinking and decision-making skills by developing, testing, and refining a structured group decision-making framework called the triple diamond. It focuses on identifying misconceptions that hinder students’ use of this framework and improving pedagogical interventions through active, collaborative learning and evidence-based methodologies.
Project scope and participants: The innovation will be implemented across multiple courses in engineering, logistics, and business master’s programs, involving diverse student groups facing recurring difficulties in applying structured decision-making methods.
Problem identification: Students consistently rely on intuitive rather than structured approaches in group decisions, struggling to apply the triple diamond framework despite repeated instruction and practice. This issue is persistent and mirrors challenges observed in professional settings.
Theoretical foundations: The project integrates concepts of misconceptions, knowledge elicitation, threshold concepts, and decoding the discipline to reveal and address barriers to expert-like thinking in decision processes. It emphasizes the reorganization of knowledge fragments rather than the mere replacement of incorrect ideas.
Learning objectives: Students will learn to manage group decision processes using the triple diamond, define tasks and prioritization criteria explicitly, analyze innovation competencies, and develop reasoned, evidence-based reports, all enhancing critical thinking skills.
Methodology: The project employs active and collaborative learning through structured three-hour classroom dynamics complemented by autonomous preparatory work. It incorporates innovative visual case representations, reflective learning journals, and think-aloud protocols to elicit student thinking and identify misconceptions.
Expected outcomes: These include identifying common misconceptions, adapting and developing rubrics for assessment, quantifying students’ valuation of innovation competencies, improving decision quality and reducing cognitive biases, and evaluating the impact of different case presentation formats on engagement and critical thinking.
Work plan and tools: The two-year plan details tasks such as material development, rubric adaptation, protocol design, experimental validation, and dissemination through academic articles and conferences. Project management uses O365 tools with regular team meetings and quality control processes.
Evaluation strategy: Evaluation includes measuring the number and categorization of misconceptions, rubric validation, analysis of student preferences and clusters, transferability assessments, pre-post intervention comparisons, and engagement metrics using established models. Data collection involves think-aloud sessions, forum analyses, and observations.
Impact and dissemination: The project aims to improve teaching and learning by making decision-making processes transparent and evidence-based, enabling transfer across disciplines and formats, including MOOCs. Results will be shared via conferences, indexed publications, online platforms, and social media, ensuring broad accessibility and adoption.
Ruiz Martín, H. (2023). “edumitos”: Ideas sobre el aprendizaje sin respaldo científico (1a edición: diciembre 2023). International Science Teaching Foundation.
Hoy pego el índice para que puedas ver si hay temas que te interesan.
A mí, de entrada, me interesan el 1, 2, 6, 7, 8, 9, 11, 14, 16, 17, 18, 19 (junto con 15), 23, 24, 25, 27, 28, 35, 36, 37, 38, 39, 40, 41, 42, 44.
En mis asignaturas, he definido una política para el uso de IA generativa y la comparto por si puede servir de referencia a otros colegas.
No me interesa valorar qué son capaces de hacer mis estudiantes como usuarios de IA generativa, sino fomentar que aprendan de verdad los contenidos o desarrollen actitudes o habilidades. Por eso, animo a emplear IA cuando les ayude a aprender, y desaconsejo su uso cuando se convierta en un atajo que impida el desarrollo de competencias.
En cada actividad especifico si se puede usar IA y en qué medida. Además, invito a los estudiantes a preguntar si tienen dudas. Esto evita ambigüedades y les ayuda a comprender el sentido pedagógico de cada decisión.
Adicionalmente he adaptado el modo en que entrego puntos por las tareas realizadas. Con el nuevo sistema pretendo desincentivar el juego absurdo de estar calificando un texto escrito por una IA e intentar dar feedback/feedforward a mis estudiantes basados en una quimera. Combino tareas observables en clase (evaluación continua (0-10)) con reflexiones personales que no aportan valor si se hacen con IA (evaluación dicotómica (hecho/no hecho)). El objetivo es que una reflexión breve y auténtica del estudiante tenga más valor pedagógico que una exposición extensa generada artificialmente
En una de mis charlas sobre uso de IA generativa para personal investigador salió el tema de cuanta Agua/energía consume el uso de IA generativa. Se comentó que alguien había leído que eran como varios litros de agua por cada imagen generada. A mí eso me pareció desorbitado, pero no tenía ninguna cifra o información que aportar. Se me ocurrían varias formas de estimarlo, aunque fuese de manera muy aproximada. Algunas de ellas eran por el método de “reducción al absurdo”, en otras llegué a barajar la posibilidad de montarme un modelo en local y medir el consumo…
The marginal energy used by a standard prompt from a modern LLM in 2025 is relatively established at this point, from both independent tests and official announcements. It is roughly 0.0003 kWh, the same energy use as 8-10 seconds of streaming Netflix or the equivalent of a Google search in 2008 (interestingly, image creation seems to use a similar amount of energy as a text prompt)1. How much water these models use per prompt is less clear but ranges from a few drops to a fifth of a shot glass (.25mL to 5mL+), depending on the definitions of water use (here is the low water argument and the high water argument).
[…]
It does not take into account the energy needed to train AI models, which is a one-time process that is very energy intensive. We do not know how much energy is used to create a modern model, but it was estimated that training GPT-4 took a little above 500,000 kWh, about 18 hours of a Boeing 737 in flight.
Pensar sin muletas: la importancia del conocimiento ‘inútil’ en un mundo automatizado
He estado escuchando este podcast que os resumo más abajo y la idea que me ha venido a la cabeza (no me preguntéis por qué, son cosas de asociaciones de ideas que van a su bola) es;
Aunque en la vida profesional casi todo el mundo usa calculadoras (u hojas de cálculo), considero muy conveniente aprender “calculo mental” en el colegio y ser solvente con operaciones básicas. No es solo que “amueble” el cerebro. Creo que es esencial para tener algo a lo que siempre me he referido como “idea de la dimensión” y para otras muchas cosas más que son útiles en la vida.
Del mismo modo, no me cabe la menor duda de que en la vida profesional todo el mundo usará IA generativa. Pero considero muy conveniente aprender conocimientos y a hacer cosas que la IA generativa haga incluso mejor que los humanos… no para competir por resultados o eficiencia, simplemente para poder pensar.
Teachlab Presents: The Homework Machine, Episode 1: Buckle Up, Here it Comes”
Ideas Principales
1. Llegada Disruptiva de la IA Generativa
ChatGPT llegó a los espacios educativos en noviembre de 2022 sin invitación institucional. A diferencia de otras tecnologías educativas que las escuelas adoptan planificadamente, la IA generativa “se coló” directamente en manos de los estudiantes a través de sus dispositivos personales.
2. Los centros educativos y los-as docentes han respondido de manera muy heterogénea
3. Impacto en la Dinámica del Aula
Uso de IA para tareas de manera generalizada, creando:
Presión sobre estudiantes honestos-as que se sienten en desventaja
Aceleración artificial del ritmo de clase
Retroalimentación incorrecta para los docentes sobre el aprendizaje real
4. Brecha Entre Promesas y Realidad
Existe una gran diferencia entre las declaraciones optimistas de los desarrolladores de IA y la experiencia caótica que viven realmente educadores y estudiantes.
Utilidad para Profesores Universitarios
Desarrollar políticas claras sobre uso de IA antes de que surjan problemas
Crear espacios de discusión con colegas sobre mejores prácticas
Reconsiderar métodos de evaluación tradicionales que pueden ser fácilmente completados por IA
Incorporar evaluaciones presenciales, orales o procesos reflexivos que demuestren comprensión real
Establecer expectativas claras sobre uso de IA desde el primer día
Enseñar uso adecuado efectivo de IA como herramienta de apoyo, no reemplazo
Adaptar metodologías para aprovechar la IA como recurso educativo
Mantener diálogo con estudiantes sobre desafíos académicos que llevan a usar IA
Explicar por qué ciertos procesos de aprendizaje no deben ser IAgenerativizados
Crear ambiente donde estudiantes se sientan cómodos admitiendo dificultades sin recurrir a IA
Experimentar personalmente con herramientas de IA para entender sus capacidades y limitaciones
Colaborar con colegas para compartir estrategias efectivas
Mantenerse actualizado sobre evolución tecnológica y sus implicaciones educativas
He estado leyendo el artículo de Hestenes et al. (1992) con el objetivo de sacar ideas para el proyecto #PIME_25-26_544 [Investigación acción para el diseño de los materiales, protocolo y análisis de viabilidad de una intervención compleja para analizar el impacto en la mejora del pensamiento crítico y el uso del marco de referencia del triple diamante en la toma de decisiones en grupo]
Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. Physics Teacher, 30(3), 141–158. https://doi.org/10.1119/1.2343497
Al acabar de leerlo, me ha picado la curiosidad de comprobar si mis conocimientos de física newtoniana son robustos o estaban plagados de “concepciones alternativas”. He aprovechado que como anexo está el “force concept inventory” (29 preguntas test para diagnosticar las “missconceptions” sobre física newtoniana).
He obtenido 21 respuestas correctas (un 72%), que teniendo en cuenta que son conceptos básicos de Física, podría parecer un poco escaso. No está tan mal al ompararlo con los resultados que muestran los autores para 1500 estudiantes EEUU (de último curso de bachillerato o de primer curso de universidad -incluyendo a Harvard University-). Al empezar el curso el porcentaje de aciertos está entre el 20% y el 25% en estudiantes “normales” de bachillerato; entre el 25% y el 41% los grupos de “altas capacidades”; y de 34% a 52% en universidad. Al acabar el curso suele estar entre 42% y 78% en bachillerato y 63% a 77% en universidad. De modo que mis conocimientos, tras más de 37 años sin haber recibido ninguna instrucción formal sobre física, están al nivel de cuando acabas física de primero de universidad EEUU.
Pero como el force concept inventory también te indica cuales son las “missconceptions” en función de las respuestas que das, se me ha ocurrido jugar con Claude4-sonnet-reasoning. Con este esté sencillo promtpt que aparece en la imagen me ha dado para estar unos 40 minutos respondiendo a las preguntas que me hacía la plataforma.
Dentro de unos meses (cuando ya haya olvidado que respondí hoy) repetiré la prueba a ver si he consolidado el conocimiento.
Mi modelo de aprendizaje fluctúa entre EPLEDRE (denostado por Ahrens (2020) y muchos promotores de 2ndbrain) y zettlekasten/2ndbrain. En ambos casos, todas las etapas del proceso se pueden hacer íntegramente con IAgen, incluso se pueden hacer muy bien (quizás sin diferencias en resultado respecto a un humano o superando a un humano -por supuesto son imbatibles en tiempo, lo que a un humano le puede costar meses o años, lo tienes en minutos con IAgen-. Pero no aprendo lo mismo consumiendo que creando. Cuando trabajo manualmente, cada fragmento de información debe ser leído varias veces. Una cuando los subrayo, otra cuando lo posiciono en el diagrama de afinidad, otra cuando lo codifico y otra cuando lo tengo agrupado por códigos para escritura productiva. Estos 3-4 impactos (como mínimo) hacen que recuerde las cosa (o al menos aumente la probabilidad de que las recuerde), también me dan 4 oportunidades para conectar esa información con ideas, preguntas o intereses. Si tengo métodos abreviados que me automatizan alguno de estos 4 pasos, ahorro tiempo, pero seguramente perderé aprendizaje (o aprenderé de otra forma que no se si será igual de profunda o más superficial).
Se me ha ocurrido (no se si con acierto o no), que cuando uso IAgen, estoy haciendo un aprendizaje que podría parecerse a la observación, mientras que si lo hago manualmente es “learning by doing”. Esto me da la oportunidad de intuir que puede pasar en mi aprendizaje aprovechando el conocimiento científico que ya existe sobre estos dos tipos de aprendizaje.
El aprendizaje basado en la práctica (learning by doing) y el aprendizaje por observación (observational learning) se han demostrado efectivos para mejorar el aprendizaje. Pero es posible que no se manifiesten los mismos resultados de aprendizaje, o no con la misma intensidad, con uno y otro. Mientras que “aprender haciendo” permite un aprendizaje experiencial profundo y un desarrollo de habilidades prácticas, “aprender observando” puede centrarse más en la cognición y la asimilación de información a través de la reflexión y el pensamiento crítico. Estos métodos activan diferentes sistemas cognitivos. Cuando simplemente observamos a alguien hacer algo, nuestro cerebro activa principalmente las neuronas espejo (ubicadas en áreas frontales y parietales) y las zonas visuales, que nos permiten entender lo que vemos pero sin comprometer completamente nuestros sistemas de control. Sin embargo, cuando ejecutamos esas mismas acciones, la cosa es diferente. Para movimientos físicos se activan intensamente la corteza motora (que controla nuestros músculos), el cerebelo (que coordina los movimientos) y los ganglios basales (que automatizan secuencias), además de áreas sensoriales que procesan el tacto y la posición de nuestro cuerpo. Cuando intentamos una accion mental como resolver problemas, la ejecución activa dispara mucho más intensamente la corteza prefrontal (nuestra “zona ejecutiva” que planifica y toma decisiones), áreas de memoria de trabajo en regiones parietales, y el cíngulo anterior (que monitoriza errores y conflictos) que se podría asociar al procesamiento metacognitivo. Además, durante la observación, la activación cerebral tiende a ser más bilateral y distribuida. Es decir, genera un procesamiento mas general. , mientras que la ejecución fuerza al cerebro a comprometer recursos especializados de cada hemisferio, creando representaciones más específicas y lateralizadas que son más eficientes pero también más especializadas para tipos particulares de tareas.
Un ejemplo, en deporte puedes aprender o interiorizar tácticas o esquemas de juego a partir de visionado de vídeos. Sus ventajas son indudables (hace viable ejercicios que no podrían hacerse en directo por falta de recursos o por condiciones meteorológicas u otras variables de contexto; no agota físicamente, de modo que puedes repetir sesiones sin sobrecargar musculatura; da un punto de vista que es difícil de lograr en el campo; permite parar, pausar, comentar y repetir mucho más flexible que en el campo…). Sin embargo, el impacto en tu forma física es nulo cuando ves un partido y la mejoras cuando juegas uno. De modo que no se aprende lo mismo consumiendo que haciendo.
Esta es mi conclusión, contraría a la de las personas que han escrito este artículo. Para mí, 0.4 puntos de diferencia en una escala de 1 a 7 sobre algo complicado de medir y con mucha subjetividad, me parece que es más bien lo contrario, un nivel de acuerdo excepcional. Tsirkas, K., Chytiri, A. P., & Bouranta, N. (2020). The gap in soft skills perceptions: A dyadic analysis. Education and Training, 62(4), 357–377. https://doi.org/10.1108/ET-03-2019-0060
Luego hay un “temita” que normalmente me desespera un poco y es el de los gráficos falsos (si, vale no son falsos, pero están trucados). Este radar chart es un ejemplo clarísimo. El truco es que no pones el principio y el final de los ejes del gráfico en el nivel mínimo y máximo de la escala respectivamente (que sería un 1 y un 7). Sino que el centro lo pones en un valor arbitrario, por ejemplo, el 4, y el tope de la escala lo pones en 6,5 (otro valor arbitrario). De modo que cada “curva de nivel” ya no representa un punto sino, quizás, 0,2 puntos y entonces las diferencias visuales quedan magnificadas. Por supuesto, si no pones los números el impacto es mayor. Aunque los pongas, el truco sigue funcionando porque el espacio visual impacta más que el hacer una resta entre 5.76 y 5.29 (por ejemplo, para trabajo en equipo). Si queréis engañar o confundir a la audiencia es la mejor forma de hacerlo, pocas personas se darán cuenta del truco y el impacto es ¡Wohw, vaya diferencia más brutal!