La UNESCO alerta sobre el impacto de la IA en la educación

04 septiembre 2023
La llegada de aplicaciones de IA que generan un lenguaje similar al humano obliga a revisar las creencias y suposiciones que sustentan nuestros sistemas educativos actuales / Imagen: iStock.

En julio de este año la UNESCO lanzó dos informes que analizan las tensiones entre tecnología y educación, con especial referencia a la inteligencia artificial (IA). Uno de ellos, del que nos hicimos eco en un artículo anterior, trata de determinar los desafíos educativos a los que debería dar respuesta el uso eficaz de la tecnología, así como los riesgos asociados a ella: “Los avances en los métodos de inteligencia artificial -afirma- han aumentado la capacidad de las herramientas de tecnología educativa, lo que ha llevado a especular que la tecnología podría llegar a suplantar la interacción humana en la educación.” El otro documento, especialmente significativo, lleva por título IA generativa y el futuro de la educación (disponible en inglés, Generative AI and the future of education), y está centrado en el impacto de la IA en los procesos de enseñanza y aprendizaje. Ambos informes comparten la necesidad de que la tecnología digital ayude a conseguir las metas educativas de la Agenda 2030, y también coinciden en centrarse en las buenas preguntas, más que en ofrecer respuestas: ¿Qué roles debería desempeñar esta poderosa tecnología? ¿En los términos de quién?¿Quién decide?

Decía que este segundo documento es especialmente relevante porque expresa con valentía y sin ambages las inquietudes de este organismo respecto del impacto de la IA generativa como ChatGPT en la educación. Firmado por Stefania Giannini, una figura de referencia en el equipo de educación de la UNESCO, el informe desgrana pormenorizadamente las expectativas y recelos que despierta esta poderosa herramienta capaz de simular con destreza el lenguaje humano, y tan diferente de la tecnología de búsqueda a la que estábamos acostumbrados.

El lenguaje importa

Lo que hace ChatGPT y los sistemas similares, llamados modelos lingüísticos de IA o modelos de lenguaje extenso es que emulan el lenguaje humano. Para ello toman cantidades ingentes de datos y los hilan en frases correctas con un argumento verosímil, lo que se parece más a la capacidad de razonar que a la de buscar.

La irrupción de aplicaciones de IA que generan un lenguaje similar al humano obliga a revisar las creencias y suposiciones que sustentan nuestros sistemas educativos actuales.

Como especialista en lingüística, Giannini capta en profundidad la trascendencia del uso que las máquinas hacen del lenguaje, ya que lo considera una habilidad humana cultivada a través de la educación y el rasgo social más definitorio de nuestra especie: “El lenguaje importa –sostiene-. Está en el corazón de la identidad y la diversidad cultural. Da significado al mundo que nos rodea e inspira nuestras acciones. Es la base de todo lo que hacemos en educación y en casi todas las demás esferas de la vida.” Por ello, la irrupción de aplicaciones de IA que generan un lenguaje similar al humano obliga a «revisar las creencias y suposiciones que sustentan nuestros sistemas educativos actuales». De ahí su inquietud: “¿Es prudente -se pregunta- entregar milenios de conocimiento a máquinas que parecen ser capaces de aprender y desempeñarse más allá de los límites establecidos por los humanos?”

Este proceso de emulación del lenguaje humano requiere un largo y costoso proceso de entrenamiento. En un encuentro en Madrid en julio de este mismo año Darío Gil, vicepresidente de IBM, explicaba que los sistemas de IA deben ser entrenados trabajosamente bajo supervisión humana con miríadas de datos y bajo pruebas de ensayo y error, con el fin de que vayan discerniendo entre las diversas posibilidades. Por ejemplo, se parte de miles de millones de frases de un idioma en las que se omite una palabra y se pide al sistema que busque la parte omitida, hasta acertarla. Al final de este largo proceso tendríamos todo ese idioma codificado en una red neuronal, o lo que es lo mismo, una base canónica entrenada, que Gil llama sistema fundacional. Este proceso es lento y exigente en recursos humanos, pero a partir de aquí se produce un punto de inflexión, porque la base creada puede usarse para generar nuevos modelos. Al fin y al cabo, decía Gil, la química, la música, las matemáticas, la programación… son todos lenguajes, y se pueden procesar del mismo modo. Es decir, empiezas con un modelo fundacional base que ha creado alguien y creas una aplicación generativa, puede que en un solo día. Gracias a esto se crean varios cientos de miles de modelos cada semana. 

Riesgo para la creación y la diversidad cultural

¿De dónde proceden esas miríadas de datos empleados en el entrenamiento de un modelo de IA? Pues básicamente de toda obra artística, literaria e informativa disponible en Internet, es decir, resultan de la apropiación, no siempre autorizada, del trabajo creativo de escritores, docentes, artistas, periodistas, académicos que sea accesible a través de la web. Además, las aportaciones se remezclan en la caja negra del sistema sin posibilidad de rastrear a sus creadores, de forma que se diluyen las fuentes y desaparecen la autoría, los derechos y la singularidad de las aportaciones. Es decir, el sistema desvincula la creación del conocimiento de los seres humanos que producen ese conocimiento, lo que viene a ser un torpedo en la línea de flotación de la creación y de la diversidad cultural.

Los modelos de IA desvinculan la creación del conocimiento de los seres humanos que producen ese conocimiento.

Por ello pregunta retóricamente el informe de la UNESCO si la IA y otras tecnologías digitales ayudan a diversificar nuestros sistemas de conocimiento o si, en realidad, actúan en la dirección opuesta, e insiste en la necesidad de salvaguardar la diversidad de estos sistemas de conocimiento y de desarrollar tecnologías de IA que ayuden a preservar y a ampliar dicha diversidad: «No podemos permitir –advierte el informe– que nuestros variados sistemas de producción de conocimiento se atrofien, y debemos cuidarnos de desvincular la creación de conocimiento de los seres humanos.»

Se trata de una herramienta, no de una inteligencia

Tengamos presente que la IA generativa no es propiamente una inteligencia, sino una herramienta programada por seres humanos. Carece, por tanto, de curiosidad, de imaginación y de criterios éticos propios. Y carece, además, de algo tan humano como el sentido común, de modo que sería incapaz de captar los matices de muchas conversaciones cotidianas (ante una expresión como “Ayer salí con unos amigos y cayeron varias copas”, probablemente interpretaría que las copas se estrellaron contra el suelo). En realidad, aunque tenga la habilidad de crear textos verosímiles, esta supuesta inteligencia es más bien estúpida, porque no entiende lo que dice. Ni siquiera sus resultados son fiables, porque no busca dar respuestas verdaderas, sino las que mejor se acomodan a las expectativas del usuario.

Una investigación reciente constata que los modelos lingüísticos de IA tienden a confirmar la opinión del usuario, aunque esa opinión sea errónea.

Un estudio muy reciente ha confirmado que estos modelos lingüísticos de IA tienden a darnos la razón y que cuanto más sofisticada sea la tecnología mayor es el nivel de adulación. No solo eso, el equipo investigadores, bajo la dirección de J. Wei, ha constatado que estos sistemas de IA generativa tienden a confirmar la opinión del usuario, incluso cuando esa opinión sea errónea (sesgo de confirmación). Por ello, deberíamos dejar de verlos como una caja negra poseedora de sabiduría, y desarrollar en toda la comunidad educativa un sentido crítico para saberlos controlar en lugar de ser controlados por ellos.

Por lo que nos dicen las investigaciones, los modelos lingüísticos de IA generativa no deberían ser utilizados en el aula como fuentes fiables de información, porque no lo son. Tampoco sirven para sustituir a un buen buscador, ni a la propia Wikipedia. Para lo que sí sirven es para experimentar reflexivamente sobre ellos, ver qué pueden aportar a la educación y cuáles son los riesgos. Y también pueden ser útiles para detectar de forma intencional sus prejuicios sesgos (los de sus creadores y los propios del modelo), mediante procesos que contribuyan a fortalecer el desarrollo del pensamiento crítico del alumnado, en paralelo con un reforzamiento de su formación humanista. Los informes de la UNESCO confirman este enfoque. A la pregunta del título del primero de los citados -«Una herramienta ¿en los términos de quién?«- responde, en el segundo, Giannini: una herramienta en los términos de las educadoras y educadores, que tienen la responsabilidad de integrar la IA en nuestros términos con el fin de reorientar y dirigir el aprendizaje digital y la IA generativa hacia el refuerzo y el enriquecimiento de la educación humanística.

El futuro de la educación en un mundo de IA

En línea con el planteamiento de Los futuros de la educación, el informe pide que, en vez de preguntarnos cómo nos preparamos para un mundo de IA, nos preguntemos cómo debería ser un mundo con IA, o mejor, cómo querríamos que fuera. ¿Qué habilidades, perspectivas y competencias deberían cultivar nuestros sistemas educativos? ¿Qué cambios se necesitan en las escuelas? ¿Cuál será el papel de los docentes? ¿Cómo devolver la agencia al alumnado y recordarle que seguimos al mando de la tecnología?

La educación es y debe seguir siendo un acto profundamente humano arraigado en la interacción social.

Sostiene el documento que la educación es y debe ser un acto profundamente humano arraigado en la interacción social, por lo que pide que al utilizar herramientas de IA se prioricen los principios de inclusión, equidad, calidad y, sobre todo, seguridad. Para garantizar que las escuelas sean lugares inclusivos y seguros propone, como principio de precaución, ralentizar o dejar de usar la tecnologías de IA que aún no entendemos, e investigarlas para saber cuándo y cómo podría ser seguro usarlas y con qué fines.

Ante todo, pide que no se confundan los medios con los fines. Para alcanzar las metas del ODS4 -educación  inclusiva y de calidad- la tarea central en este momento «no es incorporar aplicaciones de IA nuevas y en gran parte no probadas, sino ayudar a las personas a desarrollar una comprensión más clara de cuándo, por quién y por qué razones esta nueva tecnología debe y no debe usarse». Por ello el informe critica la ligereza con que algunos gobiernos y escuelas están adoptando esta tecnología tan desconocida sin controles ni regulaciones, ignorando sus riesgos: «Sorprende  –afirma– que en la mayoría de los contextos nacionales los plazos, los pasos y las autorizaciones necesarios para validar un nuevo libro de texto superen con creces los necesarios para trasladar las utilidades de IA generativa a las escuelas y las aulas».

En definitiva, el informe propone un enfoque más cauteloso en la introducción de la IA generativa en la educación, así como mejorar su regulación. Pero recuerda que el sector educativo no puede delegar las decisiones sobre marcos regulatorios en los expertos en IA, por un evidente conflicto de intereses, sino que debe abordarlas «en sus propios términos», con el apoyo técnico necesario, pero desde dentro de  la comunidad educativa.

Para más información

  • UNESCO (2023). GEM-2023: Tecnología en la Educación: ¿Una herramienta en los términos de quién?”. Disponible en este enlace.
  • UNESCO. Assistant Director-General for Education (Giannini, Stefania) (2023). Generative AI and the future of education. UNESCO. Disponible en este enlace. https://unesdoc.unesco.org/ark:/48223/pf0000385877
  • Eduforics (2022). Los futuros de la educación. El nuevo informe global de la UNESCO. Disponible en este enlace
  • Wei, D. Huang, Y. Lu, D. Zhou, Q. V. Le (2023). Simple Synthetic Data Reduces Sycophancy in Large Language Models. Google DeepMind, 7 Aug. Disponible en este enlace.