Archivo anual 2026

IA en educación: fluidez simbiótica para trabajar con criterio

La competencia que va más allá de saber usar herramientas

Durante años hemos hablado de alfabetización en IA como si fuera el objetivo. No lo es. Es el punto de partida. Lo que viene después es más exigente, más útil y, en buena medida, todavía no estamos enseñándolo bien.

Por qué «saber usar IA» no es suficiente

Una persona puede conocer ChatGPT, haber hecho cursos de prompts, manejar varias herramientas con soltura y, aun así, trabajar mal con IA.

Puede aceptar la primera respuesta sin cuestionarla. Puede producir más texto y pensar menos. Puede usar la IA para ahorrarse justo el esfuerzo cognitivo que necesitaba para aprender. Puede confundir velocidad con calidad.

El problema no es la herramienta. Es la relación con la herramienta.

Y esa distinción importa mucho en educación, porque define qué enseñamos cuando decimos que «formamos en IA».

Qué es la fluidez simbiótica con IA

La fluidez simbiótica con IA es la capacidad de integrar sistemas de inteligencia artificial en el propio proceso de pensamiento, creación y decisión, manteniendo el criterio, la agencia y la responsabilidad humana sobre el resultado.

El concepto toma su raíz de J.C.R. Licklider, que en 1960 describía la simbiosis hombre-ordenador como un modelo en el que las máquinas asumen el trabajo rutinario para que las personas puedan formular problemas, tomar decisiones y manejar situaciones complejas. Más de sesenta años después, con la IA generativa, esa idea vuelve con una urgencia nueva.

La fluidez simbiótica no es lo mismo que la alfabetización en IA, aunque la necesita como base. Y tampoco es lo mismo que la fluidez en IA, aunque comparte parte del marco. Vale la pena distinguir los tres niveles:

Alfabetización en IA: entender qué es la IA generativa, cómo funciona de forma básica, qué límites tiene, por qué puede inventar respuestas y qué riesgos implica. Es el primer escalón, necesario pero insuficiente.

Fluidez en IA: usar la IA de forma efectiva, segura y con criterio. Saber delegar bien, describir bien la tarea, discernir la calidad de la respuesta y asumir la responsabilidad del resultado. Aquí ya hay más exigencia.

Fluidez simbiótica: la IA deja de ser una herramienta externa y se integra en la forma de pensar, crear, revisar y decidir. El juicio final sigue siendo humano, pero el proceso se ha transformado. La IA ya no está «al lado». Está dentro del flujo.

La diferencia entre usar IA y trabajar en simbiosis con ella

La diferencia es concreta. Vale la pena verla con un ejemplo del ámbito educativo.

No es lo mismo pedirle a un modelo «hazme una propuesta de formación sobre IA para docentes» que usarlo para contrastar el contexto de un centro, anticipar resistencias, adaptar una actividad a la etapa, revisar riesgos antes de presentar y detectar puntos débiles en el planteamiento.

En el primer caso la IA produce. En el segundo, ayuda a pensar.

La distancia entre esos dos usos no es pequeña. En el primero, el profesional copia o adapta. En el segundo, el profesional decide, contrasta, refina y asume la autoría completa del resultado. El proceso cognitivo implicado es radicalmente distinto.

Esto conecta con algo que la investigación emergente sobre colaboración humano-IA empieza a documentar con claridad: los beneficios en productividad y creatividad son reales, pero también lo son los riesgos de sobreconfianza, pérdida de metacognición y delegación irresponsable cuando no se entrena el criterio. Una herramienta puede mejorar la productividad y al mismo tiempo debilitar determinados procesos cognitivos si se usa sin método.

Las dimensiones de la fluidez simbiótica

La fluidez simbiótica se trabaja en dimensiones concretas. No son actitudes vagas ni disposiciones genéricas. Tienen indicadores observables y pueden evaluarse.

Mentalidad colaborativa. Ver la IA como apoyo cognitivo, no como enemiga ni como oráculo. Entender sus posibilidades y sus límites con precisión.

Delegación estratégica. Saber qué tiene sentido delegar y qué no. La IA puede resumir, comparar, generar borradores, detectar incoherencias. No puede sustituir el juicio profesional, la sensibilidad ética ni la responsabilidad sobre decisiones que afectan a personas.

Formulación efectiva del contexto. Aquí está una de las claves reales. No se trata de escribir buenos prompts. Se trata de construir buen contexto: objetivo, destinatario, restricciones, criterios de calidad, ejemplos, tono, fuentes, límites. La IA responde mejor cuando la persona piensa mejor el entorno de trabajo.

Evaluación crítica de la respuesta. La IA puede producir respuestas verosímiles pero incorrectas. Puede sonar rigurosa e inventar fuentes. Puede adaptarse a lo que quieres oír. Trabajar con IA exige una actitud de sospecha razonable: no paranoia, sino criterio profesional activo.

Responsabilidad sobre el resultado. La autoría, la decisión final y la responsabilidad siguen siendo humanas. «La IA me lo ha dado así» no es una excusa aceptable en ningún contexto profesional o educativo.

Los riesgos que no se nombran suficiente

En el debate educativo sobre IA se habla mucho de plagio, de detectores y de si permitir o prohibir. Se habla menos de algo más profundo: lo que ocurre cuando alguien aprende a depender de la IA sin haber aprendido a trabajar con ella.

Un estudio reciente con trabajadores del conocimiento reveló que el aumento de confianza en la IA se correlaciona con menor esfuerzo crítico propio. Los usuarios con alta confianza en las respuestas generadas mostraron menos pensamiento crítico en sus tareas. Otro trabajo documentó que la mayoría de las personas sobreestiman su rendimiento cuando usan IA, especialmente quienes se consideraban más «alfabetizados».

Dicho de otra forma: la IA puede hacerte más productivo y más superficial al mismo tiempo. Puede ayudarte a aprender y puede ahorrarte el esfuerzo que necesitabas para aprender. Puede ayudarte a escribir mejor y puede borrar tu voz.

La fluidez simbiótica no resuelve eso automáticamente. Pero sí nombra con precisión qué hay que entrenar para que no ocurra.

Una pirámide para desarrollarla

La fluidez simbiótica no se construye aprendiendo una herramienta aislada ni acumulando trucos de prompting. Se construye por niveles. Y la mayoría de personas, incluidas muchas que se consideran usuarias avanzadas, se quedan en los primeros sin saberlo.

Nivel 1. Ingeniería de contexto

No hablo de escribir mejores prompts. Hablo de preparar bien el entorno antes de trabajar: instrucciones de sistema, criterios de calidad explícitos, ejemplos de referencia, restricciones, estilo, memoria activa y fuentes relevantes.

La diferencia entre pedirle algo a una IA genérica y trabajar con una IA que ha interiorizado tu contexto no es una diferencia de grado. Es una diferencia de tipo. Sin este nivel, todo lo que viene después es menos preciso y más lento.

Nivel 2. Sistemas personales de trabajo

Aquí la IA deja de ser una ventana de chat suelta. Entran los proyectos, los asistentes personalizados, las bases documentales, los flujos recurrentes y las instrucciones específicas por tarea. La idea central es no empezar desde cero cada vez. Cada sistema que construyes es conocimiento acumulado que la IA puede activar cuando lo necesitas.

A esto se puede añadir una capa más relevante: sistemas de conocimiento personal estructurado como Obsidian, que funcionan como memoria externa organizada que la IA puede leer y con la que puede trabajar. No como libreta de notas, sino como repositorio que alimenta tus flujos de manera sistemática. Es una dinámica que merece desarrollo propio, y lo tendrá en próximos artículos.

Nivel 3. Pensamiento aumentado

En este nivel la IA ya no sirve principalmente para producir más rápido. Sirve para someter el propio pensamiento a presión antes de tomar una decisión o presentar algo.

Eso incluye trabajar con un consejo asesor de voces distintas que critican una idea desde ángulos diferentes, hacer investigación profunda antes de escribir o proponer, preparar y entrenar conversaciones difíciles o reuniones de alto riesgo, y detectar los puntos débiles de un planteamiento antes de que lo haga otro.

Aquí también entra un uso de NotebookLM que va mucho más allá del resumen automático. Cuando tienes que aprender un campo que no dominas, la alternativa habitual es invertir decenas de horas en vídeos, artículos dispersos y notas que nunca acabas de conectar. Con un flujo bien construido en NotebookLM puedes condensar en pocas horas lo esencial de veinte fuentes distintas, triangular perspectivas, identificar los conceptos clave y generar dinámicas de aprendizaje activo a partir de ese corpus. No es leer más rápido. Es aprender de otra manera.

Nivel 4. Criterio transferible

Este es el nivel que distingue la fluidez simbiótica real de un uso avanzado pero dependiente.

La persona ya no necesita una herramienta concreta ni un flujo cerrado. Sabe decidir qué modelo o entorno le conviene para cada tarea, qué parte del proceso debe seguir haciendo ella, cómo verificar lo que recibe y, sobre todo, cómo trasladar ese criterio a contextos distintos: una clase, una reunión, una investigación, una decisión de centro, una propuesta profesional.

Aquí la IA deja de ser una herramienta que se abre para resolver algo puntual. Pasa a funcionar como una capa de trabajo: algo que atraviesa cómo piensas antes de actuar, cómo produces, cómo revisas y cómo aprendes. No está en un sitio concreto del flujo. Está en todos.

Quien usa la IA como herramienta depende de recordar cuándo abrirla. Quien la tiene integrada como capa ya no hace esa pregunta: el criterio sobre cuándo y cómo usarla forma parte de su manera de trabajar.

En este nivel la IA no amplía solo la capacidad de producir. Amplía la capacidad de pensar.

Lo que esto implica para centros y universidades

La fluidez simbiótica no es solo una competencia individual. También puede ser, y debería ser, una competencia institucional.

Un centro puede tener criterios compartidos sobre qué tareas pueden hacerse con IA, cuáles conviene preservar sin ella, qué usos deben declararse, qué evidencias de aprendizaje se van a pedir y qué datos no deberían introducirse nunca en herramientas externas. O puede dejar que cada docente lo resuelva como pueda, y cada alumno lo aprenda por su cuenta fuera del aula.

La diferencia entre esos dos escenarios no es técnica. Es de gobernanza, de criterio pedagógico y de liderazgo institucional.

Esto tiene consecuencias directas para la evaluación. Si el alumnado usa IA, ya no basta con preguntar si la ha usado o no. Hay que mirar cómo la ha usado. Marcos como SEIA pueden ayudar a estructurar esa conversación: no para convertir la evaluación en un sistema rígido, sino para distinguir niveles de uso, grados de autonomía del alumnado y evidencias relevantes. Una tarea sin IA, una con apoyo puntual y una en la que la herramienta asume una parte central del trabajo no son la misma cosa pedagógicamente.

El Evidence Hub que lancé va en esa dirección: ayudar a pensar qué evidencias pedir cuando la IA ya está presente. Justificaciones breves, defensa oral, registros de proceso, comparación de versiones, transferencia, revisión crítica. La idea no es pedir más, sino pedir mejor: aquello que permite ver si ha habido aprendizaje real detrás del producto.

Una idea para terminar

Hay una brecha que empieza a abrirse. No solo entre quienes tienen acceso a IA y quienes no. También entre quienes saben trabajar con ella y quienes la usan de forma pobre.

La IA puede hacer más visible la diferencia entre quien tiene criterio y quien no. Entre quien sabe construir contexto y quien espera que la herramienta lo haga todo. Entre quien usa la IA para ampliar su pensamiento y quien la usa para evitar pensar.

Eso no debería dejarnos indiferentes en educación.

Porque si no enseñamos fluidez simbiótica de forma deliberada, no estamos preparando al alumnado para trabajar con sistemas inteligentes. Los estamos dejando solos con ellos.


Si estás en un centro educativo, una universidad o una institución formativa y estás trabajando para estructurar mejor el uso de la IA, puedo acompañar ese proceso. Puedes contactarme en vicentgadea@outlook.com.

También puedes suscribirte a GadeIA, mi newsletter semanal sobre IA en educación con criterio, donde desarrollo estas ideas con más profundidad cada semana.


Referencias y marcos de referencia utilizados en este artículo:

  • Anthropic, AI Fluency Index, 2026
  • Horton et al., Delegation to artificial intelligence can increase dishonest behaviour, Nature, 2025
  • J.C.R. Licklider, Man-Computer Symbiosis, 1960
  • Lee et al., The Impact of Generative AI on Critical Thinking, Microsoft Research / CHI, 2025
  • Rick Dakan y Joseph Feller, AI Fluency Framework
  • UNESCO, AI Competency Framework for Students, 2024
  • Fernandes et al, AI use makes us overestimate our cognitive performance, Aalto University, 2025

Cómo la IA está cambiando el aprendizaje: 7 señales para centros educativos y universidades

Durante mucho tiempo, la conversación sobre inteligencia artificial en educación se ha movido en un terreno relativamente cómodo. Qué herramienta probar, qué política aprobar, qué formación ofrecer al profesorado o qué riesgo conviene vigilar. Todo eso sigue importando y sería irresponsable decir lo contrario. Sin embargo, cada vez resulta más evidente que ese marco ya no alcanza para explicar bien lo que está empezando a suceder.

Lo que estamos viendo no son solo herramientas nuevas ni demostraciones llamativas. Lo que empieza a aparecer son señales de un cambio más profundo en la manera de diseñar el aprendizaje, de organizar el tiempo, de personalizar los recorridos y de entender el valor que puede ofrecer una institución educativa en un contexto en el que la tecnología ya no se limita a asistir tareas, sino que empieza a intervenir en el propio corazón de la experiencia formativa.

La idea de fondo de este artículo es muy simple. La IA no está cambiando únicamente tareas concretas. Está empezando a alterar la forma en que concebimos el aprendizaje. Y cuando eso ocurre, el problema deja de ser solo técnico y pasa a ser institucional, pedagógico y estratégico.

1. De generar contenido a diseñar experiencias de aprendizaje

Durante bastante tiempo, uno de los usos más visibles de la IA en educación ha consistido en producir materiales más rápido: resúmenes, diapositivas, esquemas, ejercicios o propuestas de actividades. El problema es que, si nos quedamos ahí, estaremos mirando solo la parte menos interesante del cambio.

Proyectos como OpenMAIC apuntan a otra cosa. La propia Universidad de Tsinghua lo presenta como un nuevo enfoque para la educación online, en el que agentes de IA ayudan a generar un entorno multiagente personalizado con profesor, asistentes y compañeros sintéticos para acompañar el aprendizaje. En paralelo, su repositorio abierto lo define como una “Open Multi-Agent Interactive Classroom”.

Eso importa porque desplaza la conversación. Ya no hablamos solo de producir mejor el contenido que antes preparaba una persona. Empezamos a hablar de orquestar una sesión entera con lógica de experiencia, no solo de recurso. En el artículo “De MOOC a MAIC”, Pep Martorell desarrolló precisamente esta idea que lancé y la llevó a una formulación muy interesante: si el MOOC democratizó el acceso, propuestas como esta apuntan a que podría empezar a democratizarse también parte de la experiencia.

La señal importante, por tanto, no es la velocidad. Es que empieza a ser posible diseñar experiencias de aprendizaje completas con mucha más facilidad que antes.

Recursos para explorarlo:
Paper académico
GitHub oficial
Demo pública
– Código de acceso a la demo: MAIC-23A4-DACC-D093-8240

2. Wondering y el aprendizaje como recorrido guiado

La segunda señal llega desde otro ángulo, pero encaja perfectamente con la anterior. Wondering no llama la atención solo porque sea una app nueva, sino por el tipo de experiencia que intenta ofrecer. Su promesa no es darte más información, sino convertir cualquier tema en una ruta guiada, breve, visual y adaptada al usuario. Y eso importa porque se acerca bastante más a cómo mucha gente quiere aprender hoy que el modelo tradicional de acumular recursos dispersos y esperar que el alumno construya por sí mismo todo el recorrido.

Wondering se presenta como una app capaz de convertir cualquier tema en un recorrido guiado, visual y breve. Su fundador, Cheng-Wei Hu, explica que dejó NotebookLM para centrarse en resolver un problema mayor en aprendizaje, y el propio lanzamiento público se resumía con una frase bastante expresiva: “It’s Duolingo for anything.”

El punto más importante es que el estándar de experiencia empieza a subir. El alumno ya no compara solo entre profesores, asignaturas o universidades. También compara, aunque no siempre lo verbalice, con otras formas de aprender que resultan más claras, más guiadas y más sostenibles en el tiempo.

Eso no significa que una app vaya a sustituir a una institución educativa seria. Lo que significa es que la institución ya no puede dar por hecho que el simple acceso al contenido siga siendo suficiente como propuesta de valor.

3. Alpha School y el cuestionamiento del tiempo escolar

Pocas variables han parecido tan intocables en educación como la organización del tiempo.

Horarios, bloques, jornadas y secuencias heredadas han funcionado durante décadas casi como una infraestructura invisible del sistema. Sin embargo, modelos como Alpha School obligan a mirar esos aspectos con otros ojos.

Alpha describe oficialmente su propuesta como “2hr Learning”, un modelo en el que la parte académica se concentra en torno a dos horas diarias mediante tecnología adaptativa y aprendizaje 1:1, mientras el resto del día se dedica a talleres, habilidades de vida, proyectos e intereses personales. También explican que el papel del adulto gana peso como guía, apoyo y mentoría.

Aquí conviene ser prudentes. Parte de los resultados más llamativos proceden de materiales de la propia organización. Por eso no me parece serio tomar el caso como una prueba cerrada de nada. Pero me parece igual de poco serio descartarlo como extravagancia.

Porque, incluso aunque uno no quisiera replicar ese modelo, Alpha fuerza preguntas que muchas instituciones siguen posponiendo. No me interesa Alpha como modelo para copiarlo sin más. Me interesa como caso que obliga a hacerse mejores preguntas.

¿Cuánto tiempo de la jornada escolar genera realmente aprendizaje de alto valor?
¿Qué parte de la instrucción directa es hoy irreemplazable y qué parte empieza a comprimirse?
¿Qué valor diferencial ofrece una institución cuando parte del aprendizaje académico puede organizarse de otra manera?

4. Cómo cambia el papel del docente con la IA

Una de las respuestas fáciles ante este escenario sería pensar que, si la IA comprime o automatiza una parte de la instrucción, el profesorado pierde valor.

A mi juicio, ocurre justo lo contrario. El valor no desaparece. Se desplaza.

La función de explicar contenidos una y otra vez pierde peso relativo frente a otras tareas mucho más complejas y, probablemente, más valiosas: diseñar experiencias, secuenciar práctica, dar feedback, acompañar procesos, desarrollar criterio, interpretar evidencias de aprendizaje y sostener una cultura educativa coherente.

El propio relato público de Alpha apunta en esa dirección cuando describe a sus adultos menos como docentes tradicionales y más como guías y mentores.

Esto obliga a revisar algo que muchas instituciones aún no han afrontado con suficiente seriedad. No basta con formar al profesorado en herramientas. También hay que repensar qué parte del valor profesional docente estará cada vez menos en transmitir contenidos y más en orientar, acompañar y diseñar.

5. Cuando el alumnado empieza a construir herramientas

En el entorno de Alpha School ha ganado visibilidad Austin Way, un estudiante de 17 años que no se limita a publicar prompts, trucos o experimentos con herramientas. Lo que viene mostrando es algo bastante más interesante. Un alumno que detecta una limitación en la experiencia de aprendizaje que está usando, propone una solución, reconstruye parte del producto y empieza a hablar de ello con lógica real de diseño, iteración y mejora.

Uno de sus posts más compartidos lo resume bien. Austin afirma haber rehecho en 50 horas software educativo valorado en 100 millones de dólares y haber llegado a un acuerdo con el fundador de su escuela para ponerlo a prueba con más de 40 estudiantes en preparación para los AP exams. Tomado de forma aislada, ese mensaje podría leerse como una provocación más de redes. Pero el caso gana interés cuando se mira con más detalle qué hay detrás de esa publicación.

En la captura que acompaña ese mismo hilo, Austin explica que, como estudiante que estaba trabajando con Timeback, le parecía que esa experiencia de aprendizaje podía ser mejor. A partir de ahí afirma haber reconstruido el sistema incorporando meses de feedback de estudiantes y apoyándose en investigación sobre ciencia del aprendizaje. Entre los elementos que menciona aparecen árboles de dependencias por habilidades para los AP, herramientas para que el equipo académico genere actividades personalizadas y un sistema de puntuación respaldado por principios de aprendizaje. No estamos, por tanto, ante un simple “he hecho una app”, sino ante una forma de pensar el producto educativo desde la experiencia del alumno, el problema detectado y la mejora iterativa.

El propio Joe Liemandt, director de Alpha School, la amplifica públicamente. En uno de sus mensajes llega a afirmar que, en pocos años, muchos niños podrían estar aprendiendo con aplicaciones construidas por estudiantes de Alpha.

Ya no estamos hablando solo de alumnado que utiliza tecnología educativa. Empezamos a ver alumnado que detecta problemas, diseña soluciones, construye herramientas, las itera y las pone a prueba con lógica de producto.

Imagen

6. La personalización del aprendizaje empieza a ser viable

Durante años, la personalización del aprendizaje ha sido uno de los grandes ideales de la educación. Casi nadie discute su valor. El problema siempre ha sido cómo llevarla a la práctica de una forma sostenible, con tiempo limitado, con grupos numerosos y sin depender de recursos imposibles de escalar.

Lo que empieza a cambiar ahora no es que ese problema esté resuelto por completo. Lo que cambia es que empieza a ser técnicamente viable crear herramientas de aprendizaje muy ajustadas a una necesidad concreta en cuestión de minutos.

En mi caso, estos días he creado una pequeña app para mi hija con un objetivo muy simple: practicar inglés. La app tiene dos modos. Uno para aprender a pronunciar palabras y otro para completarlas letra por letra. Además, primero dice la palabra completa y después la deletrea despacio para que pueda escuchar bien cada sonido. Tiene errores, por supuesto. No la presento como un producto cerrado ni como una solución perfecta. Pero precisamente ahí está lo interesante. Lo importante no es la app en sí. Lo importante es lo que significa.

Significa que estamos entrando en una etapa en la que cualquier docente o familia podrá empezar a crear herramientas de aprendizaje completamente personalizadas y adaptadas a tres cosas muy concretas. La edad del alumno. El nivel real que tiene. Y aquello que necesita practicar.

Durante mucho tiempo, cuando hablábamos de personalización, pensábamos en plataformas complejas, grandes empresas edtech o sistemas institucionales muy difíciles de implementar. Ahora empiezan a aparecer herramientas que reducen drásticamente esa barrera. Ya no hace falta un equipo técnico grande para construir una pequeña solución útil. En muchos casos, basta con detectar una necesidad, tener claro el objetivo pedagógico y saber traducirlo a una herramienta sencilla.

Por eso creo que ver ejemplos reales ayuda más que cualquier explicación teórica. Permite entender enseguida el tipo de proyectos que ya se pueden lanzar con este tipo de herramientas. No hablo solo de mi caso. En el ecosistema de Lovable y herramientas similares ya empiezan a verse proyectos muy distintos, desde recursos para matemáticas o mecanografía hasta propuestas para infantil y primaria. Algunos ejemplos que me parecen interesantes son los de @Vdot_Spain con math-kids, @lolomutante con multimaster, @ozeo_ con recursosinfantiles.com, @angel_cavero con sus juegos reunidos, o @cris_tabernero con aprendeateclear.es.

Los centros educativos que no se den cuenta a tiempo de lo que esto abre van a llegar tarde. Porque otros sí van a empezar a construir estas soluciones. Y cuando eso ocurra, la diferencia va a estar en quién tiene más criterio para detectar necesidades y convertirlas en experiencias de aprendizaje útiles, concretas y bien diseñadas.

7. El diseño pedagógico importa más que la herramienta

Uno de los errores más frecuentes en esta conversación consiste en preguntar si la IA mejora o empeora el aprendizaje como si la respuesta pudiera ser simple.

La evidencia más seria empieza a apuntar a algo más interesante. No todo uso de IA mejora el aprendizaje. Lo que parece marcar la diferencia es cómo se diseña la experiencia.

El estudio reciente de Bastani y su equipo es muy clarificador en ese sentido. Durante cinco meses, 770 estudiantes de secundaria en diez centros de Taipéi trabajaron con el mismo curso, el mismo material y el mismo tutor de IA. La única diferencia entre grupos estaba en la secuenciación de problemas: fija frente a adaptativa. Cuando el sistema decidía de forma adaptativa qué practicar después, el rendimiento en el examen final presencial mejoraba 0,15 desviaciones estándar, con efectos mayores en principiantes. Los autores señalan, además, que parte de la mejora vino asociada a mayor implicación y a un uso más productivo del tutor.

Para mí, esta es una de las ideas más importantes de todo lo que estamos viendo.

La mejora no estaba en “tener IA”. Tampoco en que el chatbot fuera más brillante. Estaba en el diseño de la secuencia, en acertar mejor con qué debía practicar cada alumno y en qué momento.

Dicho de otra forma, la diferencia no la marca solo la herramienta. La marca el diseño pedagógico que la acompaña. Esa idea encaja, además, con otros experimentos como Learn Your Way de Google, que exploran cómo transformar materiales estáticos en experiencias más adaptadas y multimodales para cada alumno.

Dónde va a estar el valor de verdad

Si se miran juntas todas estas señales, el resultado no es un simple escaparate de novedades. Lo que aparece es otra cosa. Empieza a abaratarse la generación de contenido. Empieza a abaratarse la construcción de apoyos personalizados. Se cuestiona la organización tradicional del tiempo. Cambia el rol docente. Y aparece incluso la posibilidad de que parte de las herramientas con las que se aprenderá no salgan solo de grandes empresas, sino también de estudiantes o docentes capaces de detectar problemas y construir soluciones.

En ese contexto, el valor deja de estar solo en disponer de materiales o de una plataforma. El valor empieza a estar en el diseño, en el criterio, en la secuenciación, en la evaluación, en la gobernanza y en la capacidad institucional de decidir qué merece ser construido y con qué propósito.

Por eso creo que muchas instituciones van a compartir acceso a tecnologías muy parecidas en los próximos años. La diferencia no se va a jugar ahí. Se va a jugar en el criterio.

En otras palabras, muchas instituciones han competido durante años sobre todo por contenidos, estructura y certificación. Cada vez van a competir más por experiencia de aprendizaje.

Qué debería preguntarse hoy un equipo directivo

Si formas parte de un equipo directivo, creo que merece la pena dejar de mirar la IA solo como catálogo de herramientas y empezar a usarla como espejo de decisiones institucionales.

Estas son algunas preguntas que, a mi juicio, ya conviene poner encima de la mesa:

Estrategia

¿Las decisiones sobre IA en tu institución responden a una visión compartida o siguen dependiendo de iniciativas individuales?

Aprendizaje

¿La IA se está usando sobre todo para ganar productividad o también para revisar cómo se diseña la experiencia de aprendizaje?

Personalización

¿La personalización es todavía un discurso o ya es una línea real de trabajo?

Rol docente

¿Se ha hablado del desplazamiento del valor docente desde la explicación repetitiva hacia el diseño, el acompañamiento y la evaluación con criterio?

Evaluación

¿La evaluación sigue pensada como antes o se están revisando las evidencias de aprendizaje que harán falta en este nuevo contexto?

Liderazgo

¿Hay liderazgo real ordenando esta conversación o solo respuestas parciales a medida que aparecen productos nuevos?

Estas preguntas no son técnicas. Son estratégicas. Y, cada vez más, separan a los centros que prueban cosas de los que empiezan a rediseñar con sentido.

Una idea final

No creo que haya que romper el sistema educativo y empezar desde cero. Pero sí creo que cada vez será más difícil sostener ciertas inercias solo porque llevan décadas formando parte de la escuela y la universidad.

La IA, por sí sola, no transforma la educación. Lo que la transforma es el diseño institucional que la acompaña, el criterio con el que se toman las decisiones y la capacidad de liderazgo para distinguir entre novedad y cambio real.

Por eso, más que preguntarnos qué herramienta toca probar mañana, quizá convenga formular otra cuestión mucho más útil.

¿Qué parte de nuestro modelo educativo seguimos manteniendo por convicción pedagógica real y cuál seguimos manteniendo, sobre todo, por costumbre?

Ahí, a mi juicio, empieza el debate importante.


Si trabajas en un colegio, universidad o institución formativa y estás intentando ordenar este diagnóstico, estructurar una conversación interna o dar forma a una estrategia más clara sobre IA y aprendizaje, ese es precisamente el tipo de proceso que ya estoy acompañando con algunos centros y universidades. Puedes ponerte en contacto conmigo en: vicentgadea@outlook.com

También puedes suscribirte a mi newsletter para recibir este tipo de análisis semanalmente.

vicentgadea.com
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.