El futuro de la inteligencia artificial en la educación

25 septiembre 2024
La inteligencia artificial abre un campo de oportunidades para la planificación didáctica, tanto en la preparación de las clases como en la evaluación y, sobre todo, como asistente virtual para la enseñanza (img.: iStock).

Afirma el profesor Axel Rivas, director de la Escuela de Educación de la Universidad de San Andrés, que la batalla contra la inteligencia artificial es la vieja batalla por dar sentido a lo que enseñamos. El texto es la crónica de su presentación en el 17.º Seminario Internacional de Educación Integral (SIEI), celebrado el 24 de abril de 2024 en Ciudad de México.

En esta comunicación trataremos de acercar el mundo de las posibilidades y riesgos de la Inteligencia Artificial (IA) y de los cambios tecnológicos al mundo de la educación, nuestro mundo, y para eso mostraré algunas posibilidades y dilemas que se nos presentan hoy en la enseñanza.

Comenzaré por recomendarles la lectura de un texto que elaboramos junto a la Fundación Telefónica y Profuturo, que se titula “El futuro de la Inteligencia Artificial en la educación en América Latina“. En él investigamos las grandes tendencias, los cambios y escenarios a futuro, y de ahí vienen muchas de las reflexiones que voy a presentar ahora.

En primer lugar, una muy breve introducción sobre el poder de la IA:

  1. La IA utiliza algoritmos para “hablar” códigos humanos: lenguaje, imágenes, videos y música.
  2. La IA es generativa: produce nuevos conocimientos, es creativa, lo cual es novedoso y disruptivo, porque estamos acostumbrados a ver la capacidad tecnológica como una capacidad de imitación, como una capacidad de cálculo, de velocidad para hacer cálculos, y no de creación, de creatividad. Y efectivamente, puede crear cosas nuevas y originales. Muchos estudios se hacen indistinguibles de la creación humana, es decir, ya puede igualar o maniobrar al nivel que lo hacemos los humanos.
  3. La IA es adaptativa y esto la hace también exponencial. Se adapta a partir de lo que dialogamos o utilizamos junto a las máquinas. Eso hace que su crecimiento sea sin mediación de humanos. Por ejemplo, en ChatGPT, lo que surge es sin intervención de humanos, nadie lo está programando, sino que se trata de la interacción de todos nosotros con esa interfaz.

La velocidad del cambio crece exponencialmente

Un estudio sobre la velocidad y el tipo del cambio de la IA para hacer cosas que hacen los humanos nos muestra su avance en distintos campos: el de los textos, el del lenguaje, el campo del código, de la programación, de las imágenes y del video. El gran cambio se produce en 2023, con la aparición de los sistemas de lenguaje, de procesamiento de lenguaje natural a gran escala. A partir de una proyección con datos verídicos se vislumbra, para el 2025, que la IA ya puede hacer mejores textos que el promedio de los humanos, y para 2030 hace mejores textos que los expertos humanos. En cada campo se va dando esa velocidad de poder imitar, alcanzar, sobrepasar y estar a un nivel superior al de los humanos en muy poco tiempo.

Esto nos da una idea de que estamos apenas en la temprana infancia de la IA, pero que esa infancia va a crecer muy rápidamente hacia la adultez en los próximos cinco o diez años. Por lo cual, ubiquemos esta comunicación en la muy temprana infancia para ponernos en la posibilidad de aprovechar y de cuidar los riesgos que genera este cambio.

¿Cuáles son esos riesgos a gran escala?

El principal riesgo tiene que ver con la imposibilidad de distinguir qué es real y qué es artificial. Se hace cada día más difícil en muchos campos tener la certeza de si algo fue producido por una máquina o un humano, como un texto o incluso las imágenes y videos. Estamos viendo, especialmente a partir de este año, en los últimos meses, un cambio que tiene una consecuencia trascendente para nuestra historia como humanos y, sobre todo, para la historia contemporánea, que es no poder distinguir si lo que vemos en un video es real o fue creado por alguna máquina, por una IA. Personas que conocemos pueden ser modificadas en la articulación de cómo hablan y en la imitación de su entonación, hasta hacernos imposible distinguir si eso es algo real o si fue inventado. Esto tiene amplias consecuencias en todos los campos; por ejemplo, en la política: no sabemos si lo que nos llega lo dijo realmente ese político o fue inventado, y ya no vamos a poder distinguirlo más. Eso implica, también, vivir en un escenario de mayor desconcierto.

Vivimos en un entorno donde no podemos controlar lo que pasa, pero el desconcierto es mucho mayor cuando no sabemos si lo que vemos es real o falso. Y esto, la manipulación a partir de la IA, por ejemplo, de nuestras mentes, de nuestros pensamientos, puede usarse de muchas formas para distintos intereses. Pero también es un campo de oportunidades, en particular para la educación.

Oportunidades para los docentes

La IA nos abre un campo de oportunidades para la planificación didáctica.

  • En primer lugar, para pensar las clases con más ideas. Se pueden utilizar distintos motores de IA, entre ellos, el más conocido, pero no el único, que es ChatGPT, para asistir creativamente a la planificación de clases; por ejemplo, pedirle ideas para introducir un tema con un grupo de alumnos heterogéneo, ideas para hacer una clase que tenga trabajos más innovadores y creativos y usarlas. Creo que funciona bien para esa tarea.
  • En segundo lugar, puede servir para evaluar, corregir y dar retroalimentación. Esto cambiará por completo el rol de los docentes en el futuro cercano. Aunque todavía estamos en una etapa temprana, donde podemos sacar poco provecho directo, seguramente crecerá mucho en el tiempo. Podemos hoy pedirle a la máquina que corrija por nosotros, y en cierto tipo de pruebas lo hace muy bien; en otros, todavía tiene dificultades. Además, tiene la capacidad de efectuarlo inmediatamente y a muy bajo costo.
  • En tercer lugar, puede ser un asistente virtual de enseñanza. Aquí es donde creo que se abre el campo de mayor ruptura y, a su vez, de mayor posibilidad para la educación. Antes recomiendo que vean la charla TED de Salman Khan, director de la Academia Khan, sobre los cambios que permite introducir la IA. La Academia Khan es una plataforma de videos educativos con numerosas actividades; es un sistema de aprendizaje virtual que empezó una alianza con OpenAI (la empresa que creó ChatGPT). El resultado es Kahnmigo, un sistema de tutoría virtual, basado totalmente en IA, que acompaña y ayuda a los alumnos en su aprendizaje. Cuando uno ve las primeras versiones, lo impactante es que han logrado un nivel de capacidad de diálogo con los estudiantes que cambia por completo nuestras ideas de lo que la inteligencia artificial puede hacer como asistente de la enseñanza. La máquina no da soluciones a las actividades; ayuda y guía dentro de la zona de desarrollo próximo de los estudiantes, tal como hacemos los humanos cuando nos sentamos uno a uno con estudiantes o con nuestros hijos. Ayuda a aprender, avanzar y desarrollar capacidades, sin hacer la tarea por ellos. Esto puede significar un cambio estructural en la educación. Está más cerca la posibilidad de que tengamos un asistente virtual para la enseñanza. Esto no va a ocurrir, creo, en lo inmediato; es un desarrollo más a mediano plazo. Hay muchos negocios e intereses detrás, y los cambios tecnológicos nunca son lineales ni soluciones mágicas. Pero sí creo que es algo que deberíamos conocer más y empezar a interrogarnos para pensar cómo potenciar la enseñanza.

Nuevos desafíos

Quiero plantear dos grandes dilemas que la inteligencia artificial nos demanda ya mismo. El primer desafío tiene que ver con qué debemos enseñar en un mundo cada vez más mediado por la IA, donde los trabajos del futuro, o del presente, están cada vez más intervenidos, donde nuestra capacidad como humanos debe ser redefinida alrededor de las capacidades que tienen y tendrán las máquinas. Esto nos abre una gran incertidumbre: ¿Qué vale la pena aprender hoy para un mundo que desconocemos en el corto y mediano plazo?

Para ello, quiero tratar de afianzar cuatro certezas en medio de tantas preguntas e interrogantes, cuatro cuestiones que tienen valor hoy para la enseñanza y que van a tenerlo durante muchos años, y sobre las cuales no podemos dudar. Nuestra incertidumbre genera dudas en los alumnos: ¿para qué aprendo esto?, ¿para qué hago tanto esfuerzo si no sé si me va a servir?, ¿esto mismo lo va a hacer una máquina y yo nunca lo voy a necesitar?

  • La primera cuestión es el pensamiento crítico. En un mundo donde no podemos discernir qué es real y qué artificial, necesitamos crear más capacidades de reflexión, de puesta en pausa de la realidad; tratar de crear una mediación, basada en muchos sentidos en las creencias científicas, pues la racionalidad científica pone en duda lo que vemos, trata de pasarlo por distintos filtros, busca no quedar conforme con lo que consumimos. Tratar de generar un espíritu crítico muchas veces es difícil, porque es más cómodo creer. Es más fácil consumir lo que uno recibe que dudar de ello. Eso implica tener muchas fronteras y capacidades críticas de razonamiento que son más difíciles de construir, pero creo que son más necesarias que nunca. Eso nos obliga también a pensar cómo introducir, de manera transversal en nuestras materias, en nuestras áreas o en los distintos niveles educativos, nuevas herramientas para decodificar el mundo. Hay que hacerlo creando capacidades críticas.
  • Lo segundo son habilidades transferibles, es decir, que lo que aprendan nuestros alumnos tenga sentido no solamente para comprender algo simple y que se pueda aplicar en una prueba, sino que se puede usar en la vida real. En cada planificación, traten de ver cómo lo que enseñamos hoy sirve para otra cosa, hacer explícito ese puente, esa conexión, con prácticas concretas, aprender para qué.
  • Lo tercero es enseñar más habilidades tecnológicas, porque nuestros alumnos vivirán cada vez más rodeados por la tecnología. Aprender a utilizar de mejor forma la tecnología será necesario.
  • Por último, aprender a aprender. En un mundo cambiante, necesitamos tener capacidades para seguir aprendiendo a lo largo de toda la vida.

El segundo dilema que quiero plantear es el de la evaluación. Esto tiene que ver con la posibilidad de plagio y copia que tienen nuestros alumnos al alcance de la mano como nunca antes. Hoy esta posibilidad es mucho más inmediata, y mucho mejor el producto que puede proporcionar. Esto nos hace cuestionarnos si tenemos que adaptar las evaluaciones, si es posible controlar la copia. Lo primero a considerar es que nos obliga a repensar la evaluación. Efectivamente hay evaluaciones que pasan a estar en riesgo y, lamentablemente, en algunos casos, son buenas evaluaciones. Cuando le pedimos a un alumno que elabore un ensayo sobre un tema que estamos trabajando, dicha elaboración implica reflexión, consultar textos, trabajar sobre un escrito y, si hoy lo puede hacer ChatGPT, está en riesgo. Muchas veces estamos en la tentación de dejar de hacer ese tipo de evaluación; traerla al aula y aplicarla bajo nuestra supervisión, sin intervención de la máquina, pero sería una evaluación subóptima y menos reflexiva. No es lo mismo escribir en dos horas bajo la mirada de tu docente que hacerlo pensando en el texto y trabajándolo en distintas etapas.

También hay un riesgo de pensar que, si yo evalúo algo que se puede copiar, entonces podría no ser bueno como evaluación. Eso no es así. En todo caso, creo que nos invita a hacer más procesos de evaluación formativa, con distintas entregas, dar retroalimentación y que el producto final sea indudablemente del alumno, porque pasó por numerosos filtros de corrección que no pudieron haber sido fraguados por la máquina.

Hay dos distinciones muy importantes ante los dilemas de la inteligencia artificial. La primera es la distinción entre el uso del experto y del novato o aprendiz. El experto puede usar los sistemas de inteligencia artificial a su favor. Si un docente usa ChatGPT para fortalecer su planificación didáctica, el experto puede distinguir cuáles de las cosas que dice la inteligencia artificial sirven, cuáles son verdaderas. Las sugerencias que le hagan las puede tomar y descartar con el criterio de un experto. En cambio, el aprendiz no puede distinguir si está bien o mal lo que le da la inteligencia artificial, lo consume sin criterio.

La segunda distinción es la motivación intrínseca y extrínseca, la vieja batalla de nuestro sistema educativo del porqué aprendo. Creo que la aparición tan fuerte de la IA nos obliga a rehacer esta pregunta y a intentar construir mejores puentes entre la motivación intrínseca de los alumnos, el porqué de hacer esto y el resultado de lo que hago. Nuestros puentes en educación son demasiado largos. Cuando nuestros alumnos se cuestionan por qué deben aprender, la respuesta suele ser “es bueno en el futuro”, “se te develará, pero hay que esperar muchos años para que veas el fruto de tu esfuerzo”. Ese puente excesivamente largo trae la motivación extrínseca: “lo hago porque tengo que sacarme una buena nota”, “lo hago porque es mi obligación”. Y, cuando aparece la motivación extrínseca, es muy fácil buscar una ayuda que hoy está más cerca que nunca: “que lo hagan por mí; como no sé realmente para qué sirve, pero lo tengo que hacer, que alguien lo haga por mí”.

Creo que la batalla contra la IA es la vieja batalla por dar sentido a lo que enseñamos, para que nuestros alumnos hoy mismo vean el fruto de lo que aprenden. ¿Por qué hacer de mi aprendizaje algo artificial cuando puede ser real y para mí, para mi futuro? Parece que está vieja pregunta aparece hoy con más fuerza que nunca. No tiene una respuesta simple, pero sí nos obliga a buscar nuevas soluciones en el camino hacia un sistema educativo que tenga más capacidad de generar sentido en nuestros alumnos y, de esa manera, evitar que quieran utilizar las máquinas para reemplazar su propio pensamiento.


Axel Rivas es director, profesor e investigador de la Escuela de Educación de la Universidad de San Andrés. Director Académico del Centro de Investigación Aplicada en Educación San Andrés y asesor de la Oficina Regional de Educación para América Latina y el Caribe. Es autor de 18 libros sobre temas de educación, entre ellos, The New Digital Education Policy Landscape; Examining Educational Policy in Latin America; Las llaves de la educación, y ¿Quién controla el futuro de la educación?