¿Es inevitable la IA generativa en la educación?

Se repite como un mantra que la IA generativa ha llegado para quedarse, y que la escuela debe adaptarse a esta nueva disrupción tecnológica. Pero hay voces que se resisten a delegar en esta tecnología la esencia de la escuela, basada en la relación directa y respetuosa entre personas. Es el caso de Emily Bender, que en el marco de la Semana del aprendizaje digital, celebrada del 2 al 5 de septiembre en la sede de la UNESCO, en París, llama a priorizar la protección del tiempo, la atención y el aprendizaje de los estudiantes por encima de los intereses comerciales de las empresas tecnológicas.
La postura crítica de Emily M. Bender, Profesora del Departamento de Lingüística y Profesora Adjunta de la Facultad de Ciencias de la Computación y de la Información de la Universidad de Washington, no deja indiferente a nadie. Tanto en su ponencia durante la Semana del aprendizaje digital 2025 como en el informe marco del evento, sostiene una tesis contundente: los sistemas comerciales de IA generativa, en particular los grandes modelos de lenguaje y los chatbots construidos sobre ellos, ni están diseñados ni son aptos para definir el futuro de la educación y, mucho menos, para sustituirla.
Más aún, Bender considera que la adopción extensiva de estos sistemas puede causar daños significativos de tipo pedagógico, ético y financiero, especialmente en sistemas educativos con recursos limitados. Frente a la narrativa dominante de inevitabilidad tecnológica, anima a los responsables educativos a mantener una postura crítica y priorizar la dedicación de tiempo a la atención del alumnado y a la de su aprendizaje, por encima de los intereses comerciales.
Estos modelos extensos de lenguaje (LLM, por sus siglas en inglés) operan sobre correlaciones estadísticas, procesando secuencias de palabras con un patrón determinado, pero sin acceso directo a entendimiento, conciencia o contexto humanos. Por ello, cuando se dice que estos modelos “aprenden” el lenguaje, en realidad lo que aprenden son patrones formales —no conceptos—, que generan respuestas que imitan el estilo o la estructura de los textos humanos, lo que nos lleva a atribuirles comprensión. Pero la percepción de inteligencia que generan es, en gran medida, una proyección cognitiva del usuario, una ilusión en la que respuestas sintácticamente correctas pueden estar vacías de coherencia contextual o incluso ser falsas.
Bender señala varios riesgos asociados al uso de modelos LLM en educación:
- Producción de información errónea “a la carta”. Los sistemas LLM no garantizan que su respuesta proceda de una fuente verificable, sino que puede resultar de una mezcla de resúmenes o de artificios lingüísticos que aparentan autoridad. El modelo maneja técnicas como el aprendizaje de refuerzo a partir de la retroalimentación humana (RLHF por sus siglas en inglés) que sirven para alinear las respuestas con las expectativas de usuarios, para que suenen correctas y convincentes. En el contexto escolar, esto se traduce en “desinformación a la carta” —cada estudiante podría recibir variantes erróneas o no verificables dependiendo del prompt— lo que complica la acción del docente para corregir concepciones equivocadas.
- Reducción de la creatividad y la iniciativa del alumnado. La disponibilidad de respuestas elaboradas por máquinas sitúa al alumnado en un papel pasivo: sustituye el esfuerzo creativo y productivo por el consumo acrítico de contenidos prediseñados, lo que altera la naturaleza de la tarea educativa. Usada de este modo, la tecnología puede promover la recepción pasiva, sin contraste ni diálogo con fuentes primarias.
- Debilitamiento de la autoridad profesional docente. La promoción de “tutores virtuales” o modelos que automatizan funciones docentes tiende a invisibilizar la complejidad relacional y contextual del trabajo pedagógico, basado en el diagnóstico situacional, la sensibilidad pedagógica y la relación afectiva. Como denuncia el informe AI and education: Protecting the rights of learners, publicado por la UNESCO el pasado mes de agosto, las herramientas que emplean algoritmos de IA amenazan con reducir el componente humano de la educación, por lo que urge a centrar la transformación digital en la protección de los derechos humanos.
- Concepción empobrecedora de la educación. Entender la escuela como una fábrica de respuestas elaboradas por una máquina construye una visión reduccionista, que presenta la educación como una mera acumulación de datos descontextualizados, desligada de los marcos de saberes y competencias que le aportan sentido y relevancia.
A estos riesgos se suman otros, de tipo ético, dado que el uso educativo de sistemas LLM plantea problemas sobre la apropiación indebida de contenidos y la falta de respeto por el trabajo cultural ajeno, o de carácter político-económico, ya que la compra o adopción masiva de herramientas supuestamente “gratuitas” redirige recursos educativos, siempre escasos, hacia empresas tecnológicas y sus inversores. No olvidemos que cuando un servicio parece gratuito, el pago son los datos de sus usuarios (alumnado y familias, en el caso educativo). Además, las ofertas gratuitas, según Bender, pueden encubrir estrategias mercado que normalizan la presencia de oligopolios tecnológicos en la educación.
Muchas de las decisiones de adopción de tecnologías se deben, según Bender, a la falta de opciones presupuestarias, bajo el argumento de que “algo es mejor que nada”. Este razonamiento ignora los costes ocultos: pérdida de horas lectivas por tiempo dedicado a gestionar errores tecnológicos, exposición de datos sensibles del alumnado y erosión de la confianza en el equipo docente.
Ante la adopción urgente y escasamente meditada, Bender defiende una posición prudente: si no hay tiempo para evaluar impactos y costes, la respuesta por defecto ha de ser la cautela y la defensa de los bienes pedagógicos básicos (tiempo, atención, acompañamiento y autonomía docente). La preservación y el fortalecimiento de las relaciones humanas en la escuela debe ser la brújula que guíe las decisiones educativas.
Por ello, propone varias directrices prácticas:
- Mantener a los docentes y a las comunidades de aprendizaje como ejes centrales de la educación.
- Ejercer un escepticismo informado frente al marketing tecnológico y exigir pruebas de eficacia, transparencia de procedencia y mecanismos de rendición de cuentas.
- Proteger los datos del alumnado mediante marcos regulatorios estrictos.
- Priorizar la inversión en profesorado (salarios, formación, tiempo para colaboración) e infraestructura pedagógica en lugar de tecnologías presuntamente “baratas”.
- Prohibir o restringir los usos que amenacen la iniciativa creativa del alumnado o debiliten la autonomía docente.
Sugiere Bender que dejemos de ver en los sistemas educativos una realidad siempre necesitada de recursos y los entendamos, en cambio, “como repletos de otro tipo de riqueza: el tiempo y la atención de los estudiantes y su potencial como individuos y como comunidades.” Cuando la tecnología compite con estos bienes educativos, su uso deja de ser neutral y se convierte en una amenaza para la calidad educativa y para la autonomía docente.
Por ello, ante la retórica empresarial que presenta a los LLM como el paradigma de la “era de la inteligencia”, la respuesta responsable es mantener una postura escéptica, evaluar con rigor técnico, pedagógico y ético cualquier propuesta de integración y priorizar las decisiones que realmente favorezcan el desarrollo humano.
Referencia
- Emily Bender (2025). We do not have to accept AI (much less GenAI) as inevitable in education. En: UNESCO (2025), AI and the future of education. Disruptions, dilemmas and direction, pp. 41-45. DOI: https://doi.org/10.54675/KECK1261