Archivo mensual noviembre 2025

Ingeniería de contexto aplicada al ámbito educativo

Hace un par de años, cuando empecé a hablar sobre la estructura universal de prompting y sobre la paradoja del googleizador, el debate giraba en torno a cómo formular mejor las preguntas a la IA. En aquel momento, parecía que todo dependía del prompt perfecto. Incluso se llegó a hablar de la figura del “ingeniero de prompts”, como si dominar ese arte fuera el gran secreto para obtener buenos resultados.

Hoy la realidad es distinta. No hace falta ser un ingeniero de prompts, pero sí saber utilizarlos bien. El prompting sigue siendo una herramienta útil para acercarte al primer resultado que se parece a lo que buscas. Es una base necesaria, sobre todo para quienes se inician en el uso educativo de la inteligencia artificial.

En las formaciones que imparto —tanto en colegios como en institutos, universidades, sindicatos o consejerías— hay algo que siempre se repite. A casi todos les han hablado de prompting, de cómo escribir una buena instrucción o de cómo aprovechar mejor el “actúa como…”. Pero muy pocos han escuchado hablar de algo todavía más importante: el contexto.

Una y otra vez encuentro el mismo denominador común. Los docentes aprenden a “pedirle cosas” a la IA, pero no a enseñarle a pensar dentro del entorno educativo en el que trabajan. Y ahí está la gran diferencia entre usar una herramienta de moda y aprovecharla de verdad como un copiloto pedagógico.

Por eso sigo convencido de que debemos seguir formando en prompting, sí, pero solo como punto de partida. Es fundamental aprender a comunicarse con la IA con claridad, estructura y propósito.
Sin embargo, lo que realmente marca la diferencia hoy ya no es cómo preguntamos, sino desde dónde preguntamos. Es decir, con qué información, contexto y propósito acompañamos esa instrucción.

Y aquí es donde entra la mirada de David Hurtado y su concepto de ingeniería de contexto, un enfoque que, sinceramente, me ha hecho repensar por completo cómo usamos la IA en educación. Hurtado repite una idea que me parece esencial:

“La IA no falla por tus prompts, falla por tu contexto.”

Durante mucho tiempo los docentes hemos puesto el foco en el formato de la pregunta, en si debíamos escribir “actúa como profesor de…” o “crea una rúbrica de…”. Pero Hurtado nos invita a mirar más allá. No se trata de la forma, sino del terreno sobre el que la IA construye su respuesta. Si el contexto es pobre, desordenado o ambiguo, la respuesta también lo será.

En las últimas semanas he estado revisando con calma los distintos artículos de David Hurtado sobre ingeniería de contexto —desde su defensa del contexto frente al prompt hasta su último post Los seis niveles del contexto de la IA (noviembre de 2025)—, y no exagero al decir que su enfoque puede transformar por completo la manera en que entendemos el uso de la inteligencia artificial en los centros educativos.

Sus ideas conectan profundamente con algo que ya venía observando en mis propias formaciones: la necesidad de que los docentes no se limiten a aprender a pedirle cosas a la IA, sino que aprendan a construir contextos de trabajo inteligentes y éticos.

La ingeniería de contexto va precisamente de eso: de enseñar a la IA a pensar dentro de tu marco educativo. De acompañarla con la información, los procesos y los valores que definen tu manera de enseñar.

A partir de aquí, quiero compartir cómo se pueden extrapolar los seis niveles de contexto que plantea David Hurtado al ámbito educativo, con ejemplos concretos que muestran cómo cada uno influye en la manera en que trabajamos con la IA en la escuela.

Nivel 1. Los datos de entrenamiento

Hurtado explica que los datos de entrenamiento le dan al modelo un conocimiento general del mundo muy potente y patrones de razonamiento interesantes, pero advierte algo esencial:

“Los datos específicos que tiene en su entrenamiento no son fiables. Solo son predicciones. Y dato que no tiene, dato que se puede inventar.”

En educación, esto es clave. ChatGPT conoce teorías pedagógicas, metodologías activas o los ODS, pero no conoce tu centro, tu alumnado ni tus proyectos reales. Si no le das tú ese contexto, se lo inventará.

La primera lección es clara: nunca des por hecho que la IA sabe cómo funciona tu aula. Debes aportarle tú la información educativa y ética que necesita para responder con sentido.

Nivel 2. El prompt del sistema

El segundo nivel define el carácter del modelo.
Como explica David Hurtado, “el prompt del sistema es lo que el proveedor del modelo escribió para definir su personalidad, tono y límites.” Es decir, esas instrucciones iniciales determinan si una IA será más formal, más creativa o más conservadora en su forma de razonar.

Por eso ChatGPT puede resultar más conversacional, Claude más analítico y Copilot más prudente y corporativo. Cada modelo responde a la intención con la que fue configurado.

En educación, esto tiene una consecuencia directa: no todas las inteligencias artificiales sirven para el mismo propósito pedagógico, ni todas pueden usarse en cualquier entorno.

La elección del modelo debe alinearse con el ecosistema tecnológico del centro y con la normativa de protección de datos.

Si tu organización trabaja con Microsoft 365, la herramienta adecuada es Copilot.
Si utiliza Google Workspace for Education, la opción es Gemini.
Y si se trata de un entorno privado, debe emplearse siempre la herramienta oficialmente validada por la consejería o por la dirección del centro.

Esto no es una cuestión de preferencias técnicas, sino de seguridad, ética y responsabilidad institucional.
Como también recuerda Hurtado, “no se trata de saltar corriendo a los agentes autónomos, sino de pensar con la IA con un proceso de razonamiento bien diseñado.”
Y ese razonamiento incluye entender dónde y con qué contexto trabaja la IA.

Las versiones corporativas —Copilot, Gemini o ChatGPT Team/Enterprise— garantizan que la información se procese dentro de entornos seguros, con permisos controlados, trazabilidad y cumplimiento del RGPD.

Usar la IA corporativa del ecosistema de tu centro no solo protege los datos del alumnado, sino que construye un contexto tecnológico coherente, en el que toda la comunidad educativa trabaja bajo las mismas reglas, garantías y propósito común.
Porque, como bien apunta Hurtado, el contexto lo es todo.

Nivel 3. Las preferencias del usuario

Aquí es donde empezamos a influir directamente. En este nivel, el modelo adapta su comportamiento según tus preferencias: tono, formato, idioma o nivel de detalle.

Hace poco publiqué un post sobre cómo personalizar ChatGPT para que no te diga siempre que sí, donde mostraba que cuanto más específicas sean tus instrucciones, más coherente y realista será el asistente. Ese artículo y el de configurar instrucciones personalizadas encajan exactamente con este nivel. Es la prueba de que enseñar a la IA cómo quieres que trabaje contigo es también construir contexto.

Nivel 4. La memoria

Este nivel representa el futuro del trabajo con IA. Hurtado señala que la memoria aún es experimental, pero fundamental.
En el ámbito educativo, la memoria convierte la IA en un asistente inteligente o segundo cerebro docente.

En mi post sobre cómo activar la memoria en ChatGPT, explicaba que lo importante no es solo que recuerde conversaciones, sino que lo haga de forma estructurada y coherente. Así se convierte en un acompañante que aprende de tus proyectos, tus decisiones pedagógicas y tus prioridades.

La memoria, bien gestionada, es el paso clave para que la IA deje de ser una herramienta puntual y se convierta en un copiloto educativo permanente.

Nivel 5. Los documentos adjuntos

Hurtado escribe que

“En los proyectos de ChatGPT, los Notebooks de Copilot o de NotebookLM, los archivos permanecen disponibles en todas las conversaciones del mismo espacio, de modo que el modelo puede usarlos sin tener que volver a cargarlos cada vez.”

En mi día a día trabajo exactamente así. Utilizo proyectos de ChatGPT para mantener materiales, guías y presentaciones de cada formación. El modelo aprende de ese ecosistema y responde con precisión porque entiende el contexto completo.

En educación, esto puede aplicarse a programaciones didácticas, planes de mejora o proyectos interdisciplinarios. Si tu centro trabaja con Microsoft 365, lo adecuado es hacerlo con Copilot. Si utiliza Google Workspace, con Gemini. Y siempre dentro de los entornos validados por la consejería o dirección, garantizando la anonimización y la protección de los datos del alumnado.

El contexto también es legal y ético. No se trata solo de funcionalidad, sino de seguridad.

Nivel 6. El prompt del usuario

El último nivel es el visible: el prompt que escribes. Y aquí quiero insistir en algo. No hace falta ser un ingeniero de prompts, pero sí tener una estructura clara que te ayude a comunicar lo que buscas.

Yo suelo trabajar con mi estructura universal de prompting:

Esa fórmula te permite acercarte antes al resultado que deseas. No se trata de ser un ingeniero de prompts, pero tampoco de convertirse en un googleizador que lanza preguntas sin reflexión esperando milagros.

Un buen prompt no es un truco, es una herramienta de comunicación efectiva entre tu pensamiento educativo y la inteligencia artificial.

Imagen generada por Vicent Gadea con Napkin AI. Adaptación educativa de los “Seis niveles del contexto de la IA” de David Hurtado (2025).

Hacia una ingeniería de contexto educativa

La ingeniería de contexto no es solo una idea empresarial. Es una forma más madura y ética de entender el trabajo con IA en el aula.

En educación, la IA no enseña por sí sola. Aprende del contexto que le damos. Y si ese contexto es coherente con nuestra metodología, nuestros valores y nuestras necesidades reales, entonces sí puede ayudarnos a transformar cómo enseñamos y aprendemos.

El siguiente paso en la formación docente debería centrarse precisamente en esto. No solo en escribir prompts, sino en enseñar a diseñar contextos de trabajo inteligentes, éticos y personalizados.

Porque cuando cambia el contexto, cambia todo lo demás.

Si te gustaría que te ayudara a aplicar la inteligencia artificial en tu centro o a formar a tu equipo docente en su uso ético y pedagógico, puedes escribirme a
📩 vicentgadea@outlook.com

vicentgadea.com
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.