¿Para qué aprender lo que hace mejor una máquina? Para poder pensar

Pensar sin muletas: la importancia del conocimiento ‘inútil’ en un mundo automatizado

He estado escuchando este podcast que os resumo más abajo y la idea que me ha venido a la cabeza (no me preguntéis por qué, son cosas de asociaciones de ideas que van a su bola) es;

Aunque en la vida profesional casi todo el mundo usa calculadoras (u hojas de cálculo), considero muy conveniente aprender “calculo mental” en el colegio y ser solvente con operaciones básicas. No es solo que “amueble” el cerebro. Creo que es esencial para tener algo a lo que siempre me he referido como “idea de la dimensión” y para otras muchas cosas más que son útiles en la vida.

Del mismo modo, no me cabe la menor duda de que en la vida profesional todo el mundo usará IA generativa. Pero considero muy conveniente aprender conocimientos y a hacer cosas que la IA generativa haga incluso mejor que los humanos… no para competir por resultados o eficiencia, simplemente para poder pensar.

 

Teachlab Presents:  The Homework Machine, Episode 1: Buckle Up, Here it Comes”

Ideas Principales

1. Llegada Disruptiva de la IA Generativa

ChatGPT llegó a los espacios educativos en noviembre de 2022 sin invitación institucional. A diferencia de otras tecnologías educativas que las escuelas adoptan planificadamente, la IA generativa “se coló” directamente en manos de los estudiantes a través de sus dispositivos personales.

2. Los centros educativos y los-as docentes han respondido de manera muy heterogénea

3. Impacto en la Dinámica del Aula

Uso de IA para tareas de manera generalizada, creando:

  • Presión sobre estudiantes honestos-as que se sienten en desventaja
  • Aceleración artificial del ritmo de clase
  • Retroalimentación incorrecta para los docentes sobre el aprendizaje real

4. Brecha Entre Promesas y Realidad

Existe una gran diferencia entre las declaraciones optimistas de los desarrolladores de IA y la experiencia caótica que viven realmente educadores y estudiantes.

Utilidad para Profesores Universitarios

  • Desarrollar políticas claras sobre uso de IA antes de que surjan problemas
  • Crear espacios de discusión con colegas sobre mejores prácticas
  • Reconsiderar métodos de evaluación tradicionales que pueden ser fácilmente completados por IA
  • Incorporar evaluaciones presenciales, orales o procesos reflexivos que demuestren comprensión real
  • Establecer expectativas claras sobre uso de IA desde el primer día
  • Enseñar uso adecuado efectivo de IA como herramienta de apoyo, no reemplazo
  • Adaptar metodologías para aprovechar la IA como recurso educativo
  • Mantener diálogo con estudiantes sobre desafíos académicos que llevan a usar IA
  • Explicar por qué ciertos procesos de aprendizaje no deben ser IAgenerativizados
  • Crear ambiente donde estudiantes se sientan cómodos admitiendo dificultades sin recurrir a IA
  • Experimentar personalmente con herramientas de IA para entender sus capacidades y limitaciones
  • Colaborar con colegas para compartir estrategias efectivas
  • Mantenerse actualizado sobre evolución tecnológica y sus implicaciones educativas

 

Visitas: 11

Mis conocimientos de física newtoniana y cómo la IAgen me ha ayudado a aprender

He estado leyendo el artículo de Hestenes et al. (1992) con el objetivo de sacar ideas para el proyecto #PIME_25-26_544 [Investigación acción para el diseño de los materiales, protocolo y análisis de viabilidad de una intervención compleja para analizar el impacto en la mejora del pensamiento crítico y el uso del marco de referencia del triple diamante en la toma de decisiones en grupo] 

Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. Physics Teacher, 30(3), 141–158. https://doi.org/10.1119/1.2343497

Al acabar de leerlo, me ha picado la curiosidad de comprobar si mis conocimientos de física newtoniana son robustos o estaban plagados de “concepciones alternativas”. He aprovechado que como anexo está el “force concept inventory” (29 preguntas test para diagnosticar las “missconceptions” sobre física newtoniana).

He obtenido 21 respuestas correctas (un 72%), que teniendo en cuenta que son conceptos básicos de Física, podría parecer un poco escaso. No está tan mal al ompararlo con los resultados que muestran los autores para 1500 estudiantes EEUU (de último curso de bachillerato o de primer curso de universidad -incluyendo a Harvard University-). Al empezar el curso el porcentaje de aciertos está entre el 20% y el 25% en estudiantes “normales” de bachillerato; entre el 25% y el 41% los grupos de “altas capacidades”; y de 34% a 52% en universidad. Al acabar el curso suele estar entre 42% y 78% en bachillerato y 63% a 77% en universidad. De modo que mis conocimientos, tras más de 37 años sin haber recibido ninguna instrucción formal sobre física, están al nivel de cuando acabas física de primero de universidad EEUU.

Pero como el force concept inventory también te indica cuales son las “missconceptions” en función de las respuestas que das, se me ha ocurrido jugar con Claude4-sonnet-reasoning. Con este esté sencillo promtpt que aparece en la imagen me ha dado para estar unos 40 minutos respondiendo a las preguntas que me hacía la plataforma.

Dentro de unos meses (cuando ya haya olvidado que respondí hoy) repetiré la prueba a ver si he consolidado el conocimiento.

Visitas: 10

Aprendizaje por observacion vs basado en la practica

Mi modelo de aprendizaje fluctúa entre EPLEDRE (denostado por Ahrens (2020) y muchos promotores de 2ndbrain) y zettlekasten/2ndbrain. En ambos casos, todas las etapas del proceso se pueden hacer íntegramente con IAgen, incluso se pueden hacer muy bien (quizás sin diferencias en resultado respecto a un humano o superando a un humano -por supuesto son imbatibles en tiempo, lo que a un humano le puede costar meses o años, lo tienes en minutos con IAgen-. Pero no aprendo lo mismo consumiendo que creando.
Cuando trabajo manualmente, cada fragmento de información debe ser leído varias veces. Una cuando los subrayo, otra cuando lo posiciono en el diagrama de afinidad, otra cuando lo codifico y otra cuando lo tengo agrupado por códigos para escritura productiva. Estos 3-4 impactos (como mínimo) hacen que recuerde las cosa (o al menos aumente la probabilidad de que las recuerde), también me dan 4 oportunidades para conectar esa información con ideas, preguntas o intereses. Si tengo métodos abreviados que me automatizan alguno de estos 4 pasos, ahorro tiempo, pero seguramente perderé aprendizaje (o aprenderé de otra forma que no se si será igual de profunda o más superficial).

Se me ha ocurrido (no se si con acierto o no), que cuando uso IAgen, estoy haciendo un aprendizaje que podría parecerse a la observación, mientras que si lo hago manualmente es “learning by doing”. Esto me da la oportunidad de intuir que puede pasar en mi aprendizaje aprovechando el conocimiento científico que ya existe sobre estos dos tipos de aprendizaje.

El aprendizaje basado en la práctica (learning by doing) y el aprendizaje por observación (observational learning) se han demostrado efectivos para mejorar el aprendizaje. Pero es posible que no se manifiesten los mismos resultados de aprendizaje, o no con la misma intensidad, con uno y otro. Mientras que “aprender haciendo” permite un aprendizaje experiencial profundo y un desarrollo de habilidades prácticas, “aprender observando” puede centrarse más en la cognición y la asimilación de información a través de la reflexión y el pensamiento crítico.
Estos métodos activan diferentes sistemas cognitivos. Cuando simplemente observamos a alguien hacer algo, nuestro cerebro activa principalmente las neuronas espejo (ubicadas en áreas frontales y parietales) y las zonas visuales, que nos permiten entender lo que vemos pero sin comprometer completamente nuestros sistemas de control. Sin embargo, cuando ejecutamos esas mismas acciones, la cosa es diferente. Para movimientos físicos se activan intensamente la corteza motora (que controla nuestros músculos), el cerebelo (que coordina los movimientos) y los ganglios basales (que automatizan secuencias), además de áreas sensoriales que procesan el tacto y la posición de nuestro cuerpo. Cuando intentamos una accion mental como resolver problemas, la ejecución activa dispara mucho más intensamente la corteza prefrontal (nuestra “zona ejecutiva” que planifica y toma decisiones), áreas de memoria de trabajo en regiones parietales, y el cíngulo anterior (que monitoriza errores y conflictos) que se podría asociar al procesamiento metacognitivo.
Además, durante la observación, la activación cerebral tiende a ser más bilateral y distribuida. Es decir, genera un procesamiento mas general. , mientras que la ejecución fuerza al cerebro a comprometer recursos especializados de cada hemisferio, creando representaciones más específicas y lateralizadas que son más eficientes pero también más especializadas para tipos particulares de tareas.

Un ejemplo, en deporte puedes aprender o interiorizar tácticas o esquemas de juego a partir de visionado de vídeos. Sus ventajas son indudables (hace viable ejercicios que no podrían hacerse en directo por falta de recursos o por condiciones meteorológicas u otras variables de contexto; no agota físicamente, de modo que puedes repetir sesiones sin sobrecargar musculatura; da un punto de vista que es difícil de lograr en el campo; permite parar, pausar, comentar y repetir mucho más flexible que en el campo…). Sin embargo, el impacto en tu forma física es nulo cuando ves un partido y la mejoras cuando juegas uno. De modo que no se aprende lo mismo consumiendo que haciendo.

Referencias

Ahrens, S. (2020). El método zettelkasten [How to Take Smart Notes: One Simple Technique to Boost Writing, Learning and Thinking].
Anderson, J. R. (1982). Acquisition of cognitive skill. Psychological Review, 89(4), 369–406. https://doi.org/10.1037/0033-295X.89.4.369
Reyes, E., Blanco, R. M. F., Doroon, D. R., Limana, J. L., & Torcende, A. M. (2021). Feynman Technique as a Heutagogical Learning Strategy for Independent and Remote Learning. Recoletos Multidisciplinary Research Journal, 9(2), 1–13. https://doi.org/10.32871/rmrj2109.02.06
“Evolucionando el modelo de lectura comprensiva” Weblog entry. Blog de Juan A. Marin-Garcia. ROGLE-Universidad Politécnica de Valencia. Date posted: 20240818 [Date accessed: 20250814]. © 2025 by Marin-Garcia, J.A. is licensed under CC BY-NC-SA 4.0

Visitas: 5

¿La IA generativa ayuda o entorpece el aprendizaje universitario?

Esta es una de esas preguntas que no tienen una única respuesta. Depende de qué sea para ti “aprender” y depende de cómo uses la IA generativa (si la usas de modo congruente con tu concepción de qué es aprendizaje). Por ello, lo importante no es la respuesta que demos, sino el proceso de reflexión que nos lleve a construir, destruir o reconstruir nuestras creencias educativas y a fijar nuestra posición sobre para qué queremos usar la IA generativa, en qué áreas y cómo. A la segunda parte le dedicaré una entrada futura.

Ahora me quiero centrar en saber qué es eso que llamamos aprendizaje de personas adultas en el contexto de la universidad: qué características tiene y cómo se aprende. A partir de ahí, preguntarme: si aprender es esto, ¿qué usos de la IA generativa me permiten aprender y cuáles lo entorpecen?

Dado que existen múltiples formas de entender qué significa aprender en la universidad, he decidido centrarme en tres marcos teóricos específicos. Voy a asumir que tres libros (de Biggs, Ausubel y Ruiz) tienen razón en sus planteamientos y explorar hacia dónde me llevan sus ideas.

He elegido estos tres autores porque los dos primeros son “clásicos” reconocidos en el campo educativo, mientras que el tercero aporta una perspectiva contemporánea. Es posible que entre estos enfoques no haya acuerdo completo, en cuyo caso desarrollaré líneas paralelas de razonamiento. También es posible que alguno (o todos) planteen ideas que posteriormente se demuestren incorrectas. Aun así, considero que este ejercicio es valioso porque me permitirá explorar las implicaciones prácticas de diferentes concepciones del aprendizaje. Si algún día descubro marcos teóricos más correctos, repetiré este proceso de reflexión y comprobaré si me lleva a las mismas conclusiones o a diferentes.

La tarea, que me llevará varios meses, consistirá en leer y analizar el modelo de aprendizaje que plantea cada autor, relacionándolo con el impacto de los posibles usos de la IA generativa en contextos universitarios.

¿Cómo conceptualizas tú el aprendizaje universitario? ¿Crees que la reflexión sobre nuestras creencias educativas debería preceder siempre a la adopción de nuevas tecnologías?

Referencias:

  • Ausubel, D. P. (2009). Adquisición y retención del conocimiento: Una perspectiva cognitiva. Paidós.
  • Biggs, J. B., & Tang, C. S. (2011). Teaching for quality learning at university: What the student does (4th edition). McGraw-Hill/Society for Research into Higher Education/Open University Press.
  • Ruiz Martín, H. (2023). ¿Cómo aprendemos?: Una aproximación científica al aprendizaje y la enseñanza (4a edición: mayo 2023). Graó.

Entradas relacionadas:

 

Adquisición y retención del conocimiento: Una perspectiva cognitiva: 1 (Educador)¿como aprendemos?: una aproximacion cientifica al aprendizaje y la enseñanza-hector ruiz martin-9788418058059La imagen tiene un atributo ALT vacío; su nombre de archivo es image-4.png

Visitas: 22

Claude, el mejor copiloto para investigación actualmente

Llevo 4 meses sometiendo a diferentes modelos/plataformas a casos de uso reales que me enfrento en mi tarea como investigador en el área de management. Cada vez que tengo que realizar una tarea susceptible de se copilotada por una Inteligencia Artificial generativa, la pruebo en las 6 alternativas (me he suscrito a la version “pro” de todas ellas para poder compararla en su “mejor versión”).

Mis casos de uso recorren tareas tan diversas como plantear investigaciones nuevas, dar respuesta a criticas de revisores/as a mis envíos a revistas, ver el estado actual de investigación, extraer definiciones contrastadas avaladas por citas “top”, asesor metodológico para análisis complejos, soporte para código python o R para análisis, soporte para creación de páginas web para captura de datos, reformulación de transcripciones de entrevista, anonimización de nombres (entity recognition) en entrevistas o campos abiertos de encuestas,….

Además, los he usado varias veces para cada tarea (mínimo 5 o 6 veces, algunas más de 30 veces durante estos cuatro meses)

En las plataformas como perplexity, consensus, scite o scispace no he sido capaz de saber cual es el modelo que usan de base. Todas ellas lo han “fine-tuneado” pero no se sobre que modelo han partido.

En mi experiencia, el modelo por excelencia para soporte a tareas de investigación es Claude3.5-sonnet. Ninguna de las otras plataformas se acerca en rendimiento.

Puedes acceder desde Anthropic https://claude.ai/login?returnTo=%2F%3F o desde https://poe.com (mi favorita)

Pd: si no tienes dinero para pagar varias suscripciones, mi consejo es que lo inviertas en Poe.com (o, como segunda opción, en Anthropic). Si tines dinero para pagar varias, compra solo la de Poe.com y te gastas el resto tomando algún aperitivo con tus amigos/as.

Pd: mi ranking no puede extrapolarse para otros usos no relacionados con tareas de investigación. También podéis alegar que mis casos de uso son “muy particulares” y no os representan. Si no os convencen mis resultados, comprobadlo aplicando a vuestros casos de uso.

#IAgen #research 

 

Vista previa de la imagen

 

Visitas: 38

Reto21dias.IA generativa. Resumen día 9

En el noveno día del reto, un hallazgo colateral ha sido este calculador de tokens. Más allá de la curiosidad de ver cómo se agrupan las palabras en tokens, pone de manifiesto que los modelos generativos preentrenados como GPT no entienden texto realmente. Cada token es un número, una posición en un hiperespacio de muchas dimensiones. La proximidad con otros tokens genera una probabilidad de ser el siguiente elegido para construir lo que nosotros vemos como texto, imágenes o código. Las palabras se convierten en tokens, pero cada token es un número que se ubica en una posición del espacio. Eso es lo que trabajan los GPT, números que tienen identificadores y están situados en el hiperespacio con mayor o menor proximidad a otros. No entienden las palabras literalmente. Esto me ayuda a explicar cómo funcionan. También he conocido más en detalle la API de OpenAI y he seguido dos tutoriales. En uno había definiciones y enlaces, como la descripción de embeddings, útiles para búsquedas y agrupación, cosas vinculadas a mis casos de uso. Los embeddings son importantes. También da una idea de cuánto equivale un token, unos 4 caracteres, y que un token son unos 3/4 de una palabra inglesa. Con eso puedo estimar tokens y carga de trabajo para los modelos. Es importante saber los límites de tokens de cada modelo. En GPT se cuentan tokens tanto del prompt como de la respuesta generada. En embeddings solo del prompt. He probado códigos de ejemplo de Python de un tutorial y me han funcionado en Colab. Por último, he obtenido unos 10 enlaces interesantes para consultar en el futuro, que me llevarán unos 2-4 días más del reto. #Reto21dias #IAgenerativa

Visitas: 57

Reto21dias.IA generativa. Resumen día 8

 

Llevo ocho días con mi reto de 21 días y ya empiezo a resolver algunas de las cosas que tenía ganas de hacer desde hace meses. No es la foto del mono comiendo hamburguesas, sino que ya tengo acceso directo a la API de OpenAI sin pasar por AZURE . Es cierto que también he podido configurar AZURE y ya podría programar desde Python directamente sobre la API de OpenAI o a través de AZURE conectarme con ella. Pero bueno, ya tengo las dos vías. He estado haciendo pruebas, mandando texto y pidiendo que me hagan algunas imágenes. En una hora me han costado 0,07€, así que aunque los tokens cuestan, no es tanto si no mandas un volumen enorme. Lo importante es que ya puedo interactuar con ChatGPT a través de Python para mandar mensajes básicos, que no mejora mucho lo que hago por la interfaz web, pero mi idea es trabajar en las próximas semanas con el fine tuning y los embeddings para hacer cosas más diferentes. De momento voy a trabajar directamente sobre la API de OpenAI y si me queda tiempo, intentaré con AZURE , que parece más engorroso que Python contra la API. He seguido una guía web que te cuenta cómo interactuar con ChatGPT en Python con tres ejemplos: mandar/recibir mensajes, crear una foto y preguntar por problemas en un código. He conseguido clonar los tres ejemplos en funciones de Python. He tenido que retocar algunas cosas porque estaba en Google Colab, pero haciendo pequeños cambios he resuelto los casos. #Reto21dias #IAgenerativa

Visitas: 40

Reto21dias.IA generativa. Resumen día 7

### Más sobre Azure y OpenAI Service

Continué con varios cursos de Azure, esta vez centrados en el OpenAI Service. También me sumergí en varias páginas vinculadas dentro de estos cursos. De particular interés fue un módulo que proporcionaba una explicación extensa y clara de los “embeddings”, que encontré muy útil.

### Explorando Python

Además, jugué un poco con mi computadora Windows para ver si tenía Python instalado. Al final, decidí seguir trabajando con Google Colab y no alterar mi computadora instalando Python, al menos por ahora.

#Reto21dias #IAgenerativa

Visitas: 43

Reto21dias.IA generativa. Resumen día 6

### Azure y el Servicio de OpenAI

Mi principal trabajo fue un curso de Azure centrado en el servicio de OpenAI. Durante el curso, me encontré con varios conceptos nuevos, incluyendo los “embeddings”. Aunque el curso proporcionó alguna definición, todavía no comprendo del todo este concepto.

En esencia, el modelo que estás programando recibe entradas y proporciona salidas. Este proceso se lleva a cabo en un portal, que comúnmente llamamos un chatbot. Los usuarios proporcionan algo que utilizas como entradas para tu función y en el mismo portal puedes devolver al usuario las salidas de tu función.

También descubrí que, para usar el servicio de Azure, no basta con crear una cuenta en Azure y solicitar el alta en el servicio. También debes abrir un recurso para luego crear y desarrollar modelos en él. En este sentido, me inscribí en dos tipos de recursos relacionados con la generación de texto y los embeddings, pero no con la generación de imágenes.

Otro descubrimiento interesante fue que OpenAI un rendimiento excepcionalmente bueno con algunos lenguajes de programación como C, JavaScript, PHP o Perl, pero no tanto con Python.

#Reto21dias #IAgenerativa

Visitas: 36