¿Trabajar con ChatGPT nos puede volver más estúpidos?

¿Nos volverá la IA más estúpidos? Pues depende de lo que se haga con ella. Una investigación reciente muestra que un consumo pasivo de aplicaciones de IA generativa puede conducir a un debilitamiento de las capacidades cognitivas. La investigación tiene un alcance limitado, pero sus observaciones son una llamada de atención para hacer un uso más responsable de los modelos lingüísticos de IA.
Al finalizar una de sus conferencias, preguntaron a Immanuel Kant si la humanidad progresaba hacia lo mejor y, tras pensarlo unos instantes, el maestro de Königsberg aseveró con firmeza: “¡Depende de lo que se haga!”. En realidad puede que esta anécdota no sea real, sino solo una recreación de algunos de los ensayos de Kant, como el “Replanteamiento de la pregunta sobre si el género humano se halla en continuo progreso hacia lo mejor” (“El conflicto de las facultades”), donde el filósofo sugiere que el progreso no es un destino inevitable, sino una tarea moral que depende de las acciones y decisiones de la humanidad. En todo caso, el “depende” de Kant podría ser una buena respuesta a la pregunta que encabeza este post.
La IA generativa, como ChatGPT, forma parte de la vida cotidiana de millones de personas, también en las escuelas. Los docentes la usamos para generar actividades, preparar informes de tutoría, generar escritos para la administración, elaborar pruebas o pulir los correos electrónicos a las familias, y el alumnado la emplea en casi todos sus trabajos, con la precaución, eso sí, de incluir en el prompt la petición de simplificar el lenguaje y de añadir algunos errores ortográficos o gramaticales, para que la ayuda no sea detectada.
Estos sistemas lingüísticos de IA generativa, basados en modelos extensos de lenguaje (LLM por sus siglas en inglés), generan un lenguaje similar al humano, lo que es motivo de honda preocupación en el ámbito educativo. Stefania Giannini, directora de educación de la UNESCO, considera que el lenguaje es una habilidad humana cultivada a través de la educación y el rasgo social más definitorio de nuestra especie, por lo que la irrupción de aplicaciones de LLM que emulan el lenguaje humano “obliga a revisar las creencias y suposiciones que sustentan nuestros sistemas educativos actuales”. También preocupa que el uso de estas aplicaciones dificulte el desarrollo del pensamiento crítico, aunque muchas personas consideran que, como otras tecnologías precedentes, estos modelos lingüísticos se integrarán sin serios problemas cuando su uso se normalice.
Este debate abierto hace que los LLM constituyan el foco de estudio de muchos grupos de investigación educativa. Es el caso de una importante investigación del MIT (“Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task”) cuyo informe preliminar ha sido publicado este verano. Este ambicioso estudio trata de determinar el coste cognitivo de usar herramientas LLM en el contexto educativo de la redacción de un ensayo.
La investigación del MIT
El equipo de investigación, dirigido por Nataliya Kosmyna, reclutó a 56 participantes y los asignó aleatoriamente a los tres grupos siguientes, equilibrados en cuanto a edad y género:
- Grupo 1 (llamado LLM Group, o Grupo LLM). Sus componentes debían redactar los ensayos utilizando como única fuente de información GPT-4 de OpenAI. No se permitía el uso de otros navegadores ni aplicaciones.
- Grupo 2 (Search Engine Group, o Grupo de motores de búsqueda). Sus componentes usaron motores de búsqueda para sus consultas, pero en todas ellas se añadía “-ai” para evitar que aparecieran respuestas mejoradas con IA.
- Grupo 3 (Brain-only Group, o Grupo de “solo cerebro”). Sus componentes no podían utilizar aplicaciones LLM ni recurrir a un sitio web para realizar consultas.
Los participantes intervinieron en tres sesiones, con la tarea de redactar un ensayo individual en cada una. Se eligió la redacción de ensayos por ser una tarea cognitivamente compleja que exige una gran cantidad de memoria de trabajo, lo que requiere la gestión simultánea de múltiples procesos cognitivos.
Además, dieciocho participantes intervinieron en una cuarta sesión, en la que se cambiaron las herramientas: los del grupo 1 no pudieron usar herramientas web ni LLM, y los del grupo 3 utilizaron LLM.
Para evaluar la implicación y la carga cognitivas, así como para comprender mejor las activaciones cerebrales al escribir un ensayo, se registró la actividad cerebral de los participantes mediante electroencefalografía (EEG). Los ensayos se analizaron mediante la técnica de procesamiento del lenguaje natural, con el fin de obtener una comprensión completa de los métodos cuantitativos, cualitativos, léxicos y estadísticos, y la calificación de los textos producidos se llevó a cabo por docentes y también mediante agentes LLM previamente entrenados.
El coste cognitivo del uso de ChatGPT
El análisis de EEG presentó una evidencia sólida de que los grupos 1, 2 y 3 presentaron patrones de conectividad neuronal significativamente diferentes, lo que refleja estrategias cognitivas divergentes:
- La conectividad cerebral disminuyó sistemáticamente con la cantidad de apoyo externo: El grupo 3 (solo cerebro) presentó las redes neuronales más fuertes y de mayor alcance; el grupo 2 (motores de búsqueda) mostró una conectividad intermedia, y el grupo 1 (LLM) generó la conectividad cerebral más débil.
- Además, en las entrevistas finales el grupo 1 (LLM) se identificó escasamente con el trabajo realizado, mientras que la apropiación fue mayor en el Grupo 2 (motores de búsqueda) y aún mayor en el Grupo 3 (solo cerebro). El grupo 1 (LLM) tuvo grandes dificultades para recordar citas de sus ensayos, a diferencia de los otros grupos.
- Los participantes del grupo 1 (LLM) obtuvieron peores resultados en todos los niveles: neuronal, lingüístico y de calidad del ensayo.
En síntesis, los investigadores apreciaron que el uso educativo de herramientas LLM como ChatGPT genera una disminución en las habilidades de aprendizaje.
Una observación muy interesante es que los participantes que cambiaron al uso de herramientas LLM en la sesión 4 mostraron una mayor conectividad neuronal que las registradas para el Grupo 1 (LLM) en las sesiones 1, 2 y 3. Esto sugiere que reescribir un ensayo con herramientas de IA después de haber escrito previamente sin IA implicó interacciones más extensas en la red cerebral. Por el contrario, el grupo que cambió de usar herramientas LLM a “solo cerebro”, mostró un esfuerzo neuronal menos coordinado.
En la investigación, el uso educativo de ChatGPT generó una disminución en las habilidades de aprendizaje
El riesgo de la “pereza cognitiva”: o se usa, o se olvida
La teoría de la carga cognitiva, desarrollada por John Sweller, proporciona un marco para comprender el esfuerzo mental requerido durante el aprendizaje y la resolución de problemas, y explica cómo la capacidad de la memoria de trabajo limita el aprendizaje, especialmente durante la instrucción. Este hecho es bien conocido por cualquier docente que, para mejorar los aprendizajes, utiliza estrategias como la fragmentación, el andamiaje, la recuperación activa y el feedback inmediato, con el fin de reducir la carga cognitiva y, con ello, el esfuerzo cognitivo percibido por el alumnado.
Según los investigadores, la integración de los LLM en entornos de aprendizaje presenta una dualidad compleja: por un lado, pueden reducir la carga cognitiva inmediata, además de mejorar la accesibilidad y la personalización pero, a la vez, pueden contribuir a cierta “atrofia cognitiva” por generar una dependencia excesiva de las herramientas de IA, y reducir el rendimiento intelectual.
De hecho, se suele hablar de pereza cognitiva para referirse al conjunto de mecanismos cerebrales que regulan el gasto de energía y el propio coste subjetivo del esfuerzo mental. El motivo es que el cerebro es un gran consumidor de energía, y necesita regular ese gasto para mejorar su eficiencia. Una estrategia para regular ese consumo es evitar el esfuerzo asociado a procesos cognitivos complejos, que pueden saturar la memoria de trabajo, y utilizar rutinas y respuestas automáticas siempre que sea posible. Como explican Portero-Tressera et al. (2023), esta memoria de trabajo nos permite mantener la información durante un periodo breve de tiempo y manipularla de manera consciente, antes de ser consolidada en la memoria a largo plazo.
A diferencia de los motores de búsqueda convencionales, que requieren de una intervención activa del usuario, los sistemas de IA proporcionan respuestas muy elaboradas -“masticadas”- que no requieren esfuerzo, a diferencia de la elevada demanda cognitiva de la resolución de problemas, el pensamiento crítico y el pensamiento creativo. Para el equipo de investigadores del MIT, el paso de una búsqueda activa de información a un consumo pasivo de contenido generado por la IA puede tener implicaciones profundas en la forma en que se procesa y evalúa la información.
¿Qué conclusiones podemos extraer?
La investigación tiene un alcance limitado, por lo que no permite concluir que la IA generativa sea perjudicial para nuestro cerebro. Sin embargo, sus observaciones son una llamada de atención para hacer un uso más responsable de las herramientas LLM.
La IA es una herramienta que, dependiendo de su enfoque educativo, puede mejorar o debilitar las habilidades cognitivas
Es razonable pensar que si delegamos en la IA generativa algunas características propias de la creatividad humana, como la creación artística o literaria, o si sustituimos con IA los comportamientos genuinamente humanos, como la conversación, la relación o el acompañamiento, el resultado puede conducir a un debilitamiento de las capacidades cognitivas. Pero si la empleamos para apoyar el proceso intelectual, para contrastar nuestras ideas, para identificar sus sesgos, para pulir nuestra producción creativa o para generar lluvias de ideas, que habrá que trabajar después, puede ser una gran aliada para la estimulación cognitiva y la mejora del pensamiento crítico y de la producción intelectual. En síntesis, la IA es una herramienta que puede mejorar o debilitar las habilidades cognitivas, en función de la estrategia seguida en su aplicación educativa.
La clave es usar la IA generativa para apoyar el proceso intelectual, pero sin reemplazarlo. Evitar la delegación de procesos clave en las herramientas LLM, y menos aún las tareas completas. Y reforzar nuestra autonomía intelectual, para evitar una dependencia excesiva de los sistemas de IA.
Referencias
- Kosmyna, N.; Hauptmann, E.; Yuan, Y. T.; Situ, J.; Liao, X. H.; Beresnitzky, A. V.; Braunstein, I.; Maes, P. (2025). Arxiv.org. Disponible en este enlace.
- Portero-Tresserra, M.; Ferrero, M.; Ibáñez, A. (2023). Mitos y evidencias en educación. Aportaciones de la psicología y las neurociencias. 23. Madrid: Fundación SM. Disponible en este enlace.