En una de mis charlas sobre uso de IA generativa para personal investigador salió el tema de cuanta Agua/energía consume el uso de IA generativa. Se comentó que alguien había leído que eran como varios litros de agua por cada imagen generada. A mí eso me pareció desorbitado, pero no tenía ninguna cifra o información que aportar. Se me ocurrían varias formas de estimarlo, aunque fuese de manera muy aproximada. Algunas de ellas eran por el método de “reducción al absurdo”, en otras llegué a barajar la posibilidad de montarme un modelo en local y medir el consumo…
The marginal energy used by a standard prompt from a modern LLM in 2025 is relatively established at this point, from both independent tests and official announcements. It is roughly 0.0003 kWh, the same energy use as 8-10 seconds of streaming Netflix or the equivalent of a Google search in 2008 (interestingly, image creation seems to use a similar amount of energy as a text prompt)1. How much water these models use per prompt is less clear but ranges from a few drops to a fifth of a shot glass (.25mL to 5mL+), depending on the definitions of water use (here is the low water argument and the high water argument).
[…]
It does not take into account the energy needed to train AI models, which is a one-time process that is very energy intensive. We do not know how much energy is used to create a modern model, but it was estimated that training GPT-4 took a little above 500,000 kWh, about 18 hours of a Boeing 737 in flight.
Pensar sin muletas: la importancia del conocimiento ‘inútil’ en un mundo automatizado
He estado escuchando este podcast que os resumo más abajo y la idea que me ha venido a la cabeza (no me preguntéis por qué, son cosas de asociaciones de ideas que van a su bola) es;
Aunque en la vida profesional casi todo el mundo usa calculadoras (u hojas de cálculo), considero muy conveniente aprender “calculo mental” en el colegio y ser solvente con operaciones básicas. No es solo que “amueble” el cerebro. Creo que es esencial para tener algo a lo que siempre me he referido como “idea de la dimensión” y para otras muchas cosas más que son útiles en la vida.
Del mismo modo, no me cabe la menor duda de que en la vida profesional todo el mundo usará IA generativa. Pero considero muy conveniente aprender conocimientos y a hacer cosas que la IA generativa haga incluso mejor que los humanos… no para competir por resultados o eficiencia, simplemente para poder pensar.
Teachlab Presents: The Homework Machine, Episode 1: Buckle Up, Here it Comes”
Ideas Principales
1. Llegada Disruptiva de la IA Generativa
ChatGPT llegó a los espacios educativos en noviembre de 2022 sin invitación institucional. A diferencia de otras tecnologías educativas que las escuelas adoptan planificadamente, la IA generativa “se coló” directamente en manos de los estudiantes a través de sus dispositivos personales.
2. Los centros educativos y los-as docentes han respondido de manera muy heterogénea
3. Impacto en la Dinámica del Aula
Uso de IA para tareas de manera generalizada, creando:
Presión sobre estudiantes honestos-as que se sienten en desventaja
Aceleración artificial del ritmo de clase
Retroalimentación incorrecta para los docentes sobre el aprendizaje real
4. Brecha Entre Promesas y Realidad
Existe una gran diferencia entre las declaraciones optimistas de los desarrolladores de IA y la experiencia caótica que viven realmente educadores y estudiantes.
Utilidad para Profesores Universitarios
Desarrollar políticas claras sobre uso de IA antes de que surjan problemas
Crear espacios de discusión con colegas sobre mejores prácticas
Reconsiderar métodos de evaluación tradicionales que pueden ser fácilmente completados por IA
Incorporar evaluaciones presenciales, orales o procesos reflexivos que demuestren comprensión real
Establecer expectativas claras sobre uso de IA desde el primer día
Enseñar uso adecuado efectivo de IA como herramienta de apoyo, no reemplazo
Adaptar metodologías para aprovechar la IA como recurso educativo
Mantener diálogo con estudiantes sobre desafíos académicos que llevan a usar IA
Explicar por qué ciertos procesos de aprendizaje no deben ser IAgenerativizados
Crear ambiente donde estudiantes se sientan cómodos admitiendo dificultades sin recurrir a IA
Experimentar personalmente con herramientas de IA para entender sus capacidades y limitaciones
Colaborar con colegas para compartir estrategias efectivas
Mantenerse actualizado sobre evolución tecnológica y sus implicaciones educativas
He estado leyendo el artículo de Hestenes et al. (1992) con el objetivo de sacar ideas para el proyecto #PIME_25-26_544 [Investigación acción para el diseño de los materiales, protocolo y análisis de viabilidad de una intervención compleja para analizar el impacto en la mejora del pensamiento crítico y el uso del marco de referencia del triple diamante en la toma de decisiones en grupo]
Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. Physics Teacher, 30(3), 141–158. https://doi.org/10.1119/1.2343497
Al acabar de leerlo, me ha picado la curiosidad de comprobar si mis conocimientos de física newtoniana son robustos o estaban plagados de “concepciones alternativas”. He aprovechado que como anexo está el “force concept inventory” (29 preguntas test para diagnosticar las “missconceptions” sobre física newtoniana).
He obtenido 21 respuestas correctas (un 72%), que teniendo en cuenta que son conceptos básicos de Física, podría parecer un poco escaso. No está tan mal al ompararlo con los resultados que muestran los autores para 1500 estudiantes EEUU (de último curso de bachillerato o de primer curso de universidad -incluyendo a Harvard University-). Al empezar el curso el porcentaje de aciertos está entre el 20% y el 25% en estudiantes “normales” de bachillerato; entre el 25% y el 41% los grupos de “altas capacidades”; y de 34% a 52% en universidad. Al acabar el curso suele estar entre 42% y 78% en bachillerato y 63% a 77% en universidad. De modo que mis conocimientos, tras más de 37 años sin haber recibido ninguna instrucción formal sobre física, están al nivel de cuando acabas física de primero de universidad EEUU.
Pero como el force concept inventory también te indica cuales son las “missconceptions” en función de las respuestas que das, se me ha ocurrido jugar con Claude4-sonnet-reasoning. Con este esté sencillo promtpt que aparece en la imagen me ha dado para estar unos 40 minutos respondiendo a las preguntas que me hacía la plataforma.
Dentro de unos meses (cuando ya haya olvidado que respondí hoy) repetiré la prueba a ver si he consolidado el conocimiento.
Mi modelo de aprendizaje fluctúa entre EPLEDRE (denostado por Ahrens (2020) y muchos promotores de 2ndbrain) y zettlekasten/2ndbrain. En ambos casos, todas las etapas del proceso se pueden hacer íntegramente con IAgen, incluso se pueden hacer muy bien (quizás sin diferencias en resultado respecto a un humano o superando a un humano -por supuesto son imbatibles en tiempo, lo que a un humano le puede costar meses o años, lo tienes en minutos con IAgen-. Pero no aprendo lo mismo consumiendo que creando. Cuando trabajo manualmente, cada fragmento de información debe ser leído varias veces. Una cuando los subrayo, otra cuando lo posiciono en el diagrama de afinidad, otra cuando lo codifico y otra cuando lo tengo agrupado por códigos para escritura productiva. Estos 3-4 impactos (como mínimo) hacen que recuerde las cosa (o al menos aumente la probabilidad de que las recuerde), también me dan 4 oportunidades para conectar esa información con ideas, preguntas o intereses. Si tengo métodos abreviados que me automatizan alguno de estos 4 pasos, ahorro tiempo, pero seguramente perderé aprendizaje (o aprenderé de otra forma que no se si será igual de profunda o más superficial).
Se me ha ocurrido (no se si con acierto o no), que cuando uso IAgen, estoy haciendo un aprendizaje que podría parecerse a la observación, mientras que si lo hago manualmente es “learning by doing”. Esto me da la oportunidad de intuir que puede pasar en mi aprendizaje aprovechando el conocimiento científico que ya existe sobre estos dos tipos de aprendizaje.
El aprendizaje basado en la práctica (learning by doing) y el aprendizaje por observación (observational learning) se han demostrado efectivos para mejorar el aprendizaje. Pero es posible que no se manifiesten los mismos resultados de aprendizaje, o no con la misma intensidad, con uno y otro. Mientras que “aprender haciendo” permite un aprendizaje experiencial profundo y un desarrollo de habilidades prácticas, “aprender observando” puede centrarse más en la cognición y la asimilación de información a través de la reflexión y el pensamiento crítico. Estos métodos activan diferentes sistemas cognitivos. Cuando simplemente observamos a alguien hacer algo, nuestro cerebro activa principalmente las neuronas espejo (ubicadas en áreas frontales y parietales) y las zonas visuales, que nos permiten entender lo que vemos pero sin comprometer completamente nuestros sistemas de control. Sin embargo, cuando ejecutamos esas mismas acciones, la cosa es diferente. Para movimientos físicos se activan intensamente la corteza motora (que controla nuestros músculos), el cerebelo (que coordina los movimientos) y los ganglios basales (que automatizan secuencias), además de áreas sensoriales que procesan el tacto y la posición de nuestro cuerpo. Cuando intentamos una accion mental como resolver problemas, la ejecución activa dispara mucho más intensamente la corteza prefrontal (nuestra “zona ejecutiva” que planifica y toma decisiones), áreas de memoria de trabajo en regiones parietales, y el cíngulo anterior (que monitoriza errores y conflictos) que se podría asociar al procesamiento metacognitivo. Además, durante la observación, la activación cerebral tiende a ser más bilateral y distribuida. Es decir, genera un procesamiento mas general. , mientras que la ejecución fuerza al cerebro a comprometer recursos especializados de cada hemisferio, creando representaciones más específicas y lateralizadas que son más eficientes pero también más especializadas para tipos particulares de tareas.
Un ejemplo, en deporte puedes aprender o interiorizar tácticas o esquemas de juego a partir de visionado de vídeos. Sus ventajas son indudables (hace viable ejercicios que no podrían hacerse en directo por falta de recursos o por condiciones meteorológicas u otras variables de contexto; no agota físicamente, de modo que puedes repetir sesiones sin sobrecargar musculatura; da un punto de vista que es difícil de lograr en el campo; permite parar, pausar, comentar y repetir mucho más flexible que en el campo…). Sin embargo, el impacto en tu forma física es nulo cuando ves un partido y la mejoras cuando juegas uno. De modo que no se aprende lo mismo consumiendo que haciendo.
Estas instrucciones han sido creadas en julio de 2025, es probable que en el futuro las pantallas u opciones que se muestren no coincidan con las actuales.
Esta es una de esas preguntas que no tienen una única respuesta. Depende de qué sea para ti “aprender” y depende de cómo uses la IA generativa (si la usas de modo congruente con tu concepción de qué es aprendizaje). Por ello, lo importante no es la respuesta que demos, sino el proceso de reflexión que nos lleve a construir, destruir o reconstruir nuestras creencias educativas y a fijar nuestra posición sobre para qué queremos usar la IA generativa, en qué áreas y cómo. A la segunda parte le dedicaré una entrada futura.
Ahora me quiero centrar en saber qué es eso que llamamos aprendizaje de personas adultas en el contexto de la universidad: qué características tiene y cómo se aprende. A partir de ahí, preguntarme: si aprender es esto, ¿qué usos de la IA generativa me permiten aprender y cuáles lo entorpecen?
Dado que existen múltiples formas de entender qué significa aprender en la universidad, he decidido centrarme en tres marcos teóricos específicos. Voy a asumir que tres libros (de Biggs, Ausubel y Ruiz) tienen razón en sus planteamientos y explorar hacia dónde me llevan sus ideas.
He elegido estos tres autores porque los dos primeros son “clásicos” reconocidos en el campo educativo, mientras que el tercero aporta una perspectiva contemporánea. Es posible que entre estos enfoques no haya acuerdo completo, en cuyo caso desarrollaré líneas paralelas de razonamiento. También es posible que alguno (o todos) planteen ideas que posteriormente se demuestren incorrectas. Aun así, considero que este ejercicio es valioso porque me permitirá explorar las implicaciones prácticas de diferentes concepciones del aprendizaje. Si algún día descubro marcos teóricos más correctos, repetiré este proceso de reflexión y comprobaré si me lleva a las mismas conclusiones o a diferentes.
La tarea, que me llevará varios meses, consistirá en leer y analizar el modelo de aprendizaje que plantea cada autor, relacionándolo con el impacto de los posibles usos de la IA generativa en contextos universitarios.
¿Cómo conceptualizas tú el aprendizaje universitario? ¿Crees que la reflexión sobre nuestras creencias educativas debería preceder siempre a la adopción de nuevas tecnologías?
Referencias:
Ausubel, D. P. (2009). Adquisición y retención del conocimiento: Una perspectiva cognitiva. Paidós.
Biggs, J. B., & Tang, C. S. (2011). Teaching for quality learning at university: What the student does (4th edition). McGraw-Hill/Society for Research into Higher Education/Open University Press.
Ruiz Martín, H. (2023). ¿Cómo aprendemos?: Una aproximación científica al aprendizaje y la enseñanza (4a edición: mayo 2023). Graó.
Llevo 4 meses sometiendo a diferentes modelos/plataformas a casos de uso reales que me enfrento en mi tarea como investigador en el área de management. Cada vez que tengo que realizar una tarea susceptible de se copilotada por una Inteligencia Artificial generativa, la pruebo en las 6 alternativas (me he suscrito a la version “pro” de todas ellas para poder compararla en su “mejor versión”).
Mis casos de uso recorren tareas tan diversas como plantear investigaciones nuevas, dar respuesta a criticas de revisores/as a mis envíos a revistas, ver el estado actual de investigación, extraer definiciones contrastadas avaladas por citas “top”, asesor metodológico para análisis complejos, soporte para código python o R para análisis, soporte para creación de páginas web para captura de datos, reformulación de transcripciones de entrevista, anonimización de nombres (entity recognition) en entrevistas o campos abiertos de encuestas,….
Además, los he usado varias veces para cada tarea (mínimo 5 o 6 veces, algunas más de 30 veces durante estos cuatro meses)
En las plataformas como perplexity, consensus, scite o scispace no he sido capaz de saber cual es el modelo que usan de base. Todas ellas lo han “fine-tuneado” pero no se sobre que modelo han partido.
En mi experiencia, el modelo por excelencia para soporte a tareas de investigación es Claude3.5-sonnet. Ninguna de las otras plataformas se acerca en rendimiento.
Puedes acceder desde Anthropic https://claude.ai/login?returnTo=%2F%3F o desde https://poe.com (mi favorita)
Pd: si no tienes dinero para pagar varias suscripciones, mi consejo es que lo inviertas en Poe.com (o, como segunda opción, en Anthropic). Si tines dinero para pagar varias, compra solo la de Poe.com y te gastas el resto tomando algún aperitivo con tus amigos/as.
Pd: mi ranking no puede extrapolarse para otros usos no relacionados con tareas de investigación. También podéis alegar que mis casos de uso son “muy particulares” y no os representan. Si no os convencen mis resultados, comprobadlo aplicando a vuestros casos de uso.
En el noveno día del reto, un hallazgo colateral ha sido este calculador de tokens. Más allá de la curiosidad de ver cómo se agrupan las palabras en tokens, pone de manifiesto que los modelos generativos preentrenados como GPT no entienden texto realmente. Cada token es un número, una posición en un hiperespacio de muchas dimensiones. La proximidad con otros tokens genera una probabilidad de ser el siguiente elegido para construir lo que nosotros vemos como texto, imágenes o código. Las palabras se convierten en tokens, pero cada token es un número que se ubica en una posición del espacio. Eso es lo que trabajan los GPT, números que tienen identificadores y están situados en el hiperespacio con mayor o menor proximidad a otros. No entienden las palabras literalmente. Esto me ayuda a explicar cómo funcionan. También he conocido más en detalle la API de OpenAI y he seguido dos tutoriales. En uno había definiciones y enlaces, como la descripción de embeddings, útiles para búsquedas y agrupación, cosas vinculadas a mis casos de uso. Los embeddings son importantes. También da una idea de cuánto equivale un token, unos 4 caracteres, y que un token son unos 3/4 de una palabra inglesa. Con eso puedo estimar tokens y carga de trabajo para los modelos. Es importante saber los límites de tokens de cada modelo. En GPT se cuentan tokens tanto del prompt como de la respuesta generada. En embeddings solo del prompt. He probado códigos de ejemplo de Python de un tutorial y me han funcionado en Colab. Por último, he obtenido unos 10 enlaces interesantes para consultar en el futuro, que me llevarán unos 2-4 días más del reto. #Reto21dias #IAgenerativa
Llevo ocho días con mi reto de 21 días y ya empiezo a resolver algunas de las cosas que tenía ganas de hacer desde hace meses. No es la foto del mono comiendo hamburguesas, sino que ya tengo acceso directo a la API de OpenAI sin pasar por AZURE . Es cierto que también he podido configurar AZURE y ya podría programar desde Python directamente sobre la API de OpenAI o a través de AZURE conectarme con ella. Pero bueno, ya tengo las dos vías. He estado haciendo pruebas, mandando texto y pidiendo que me hagan algunas imágenes. En una hora me han costado 0,07€, así que aunque los tokens cuestan, no es tanto si no mandas un volumen enorme. Lo importante es que ya puedo interactuar con ChatGPT a través de Python para mandar mensajes básicos, que no mejora mucho lo que hago por la interfaz web, pero mi idea es trabajar en las próximas semanas con el fine tuning y los embeddings para hacer cosas más diferentes. De momento voy a trabajar directamente sobre la API de OpenAI y si me queda tiempo, intentaré con AZURE , que parece más engorroso que Python contra la API. He seguido una guía web que te cuenta cómo interactuar con ChatGPT en Python con tres ejemplos: mandar/recibir mensajes, crear una foto y preguntar por problemas en un código. He conseguido clonar los tres ejemplos en funciones de Python. He tenido que retocar algunas cosas porque estaba en Google Colab, pero haciendo pequeños cambios he resuelto los casos. #Reto21dias #IAgenerativa
Continué con varios cursos de Azure, esta vez centrados en el OpenAI Service. También me sumergí en varias páginas vinculadas dentro de estos cursos. De particular interés fue un módulo que proporcionaba una explicación extensa y clara de los “embeddings”, que encontré muy útil.
### Explorando Python
Además, jugué un poco con mi computadora Windows para ver si tenía Python instalado. Al final, decidí seguir trabajando con Google Colab y no alterar mi computadora instalando Python, al menos por ahora.