La tendencia a la adulación de la IA puede sesgar nuestro juicio

Un equipo de la Stanford University analizó once modelos de lenguaje (IA generativa) y detectó en ellos una fuerte tendencia a adular y a validar las opiniones del usuario, lo que puede reforzar creencias erróneas y afectar a las relaciones. El estudio indica que incluso las interacciones breves pueden alterar el criterio individual y reducir la disposición a asumir responsabilidades o a resolver conflictos.
El estudio, publicado en Science, constata que los chatbots de inteligencia artificial generativa tienden a dar la razón a los usuarios mucho más que los humanos, incluso en situaciones problemáticas.
El equipo, liderado por Myra Cheng, experta en ciencias computacionales de la universidad estadounidense, analizó once modelos de lenguaje avanzados de grandes compañías tecnológicas, como OpenAI, Anthropic y Google, a partir de publicaciones de la comunidad “AITA” de Reddit. Los sistemas evaluados respaldaron las acciones de los usuarios un 49 % más que lo hacían las personas, incluso en casos que implicaban engaño, daño o ilegalidad.
Los sistemas de IA evaluados respaldaron las acciones de los usuarios un 49 % más que las personas
En dos experimentos posteriores, los investigadores examinaron los efectos de estas respuestas. Los participantes que interactuaron con una IA complaciente en conflictos interpersonales se mostraron más convencidos de su propia postura y menos inclinados a reconciliarse o a asumir responsabilidades, incluso tras una sola interacción. Además, consideraron estas respuestas más útiles y fiables, y expresaron mayor disposición a volver a utilizar estos sistemas, lo que sugiere que el mismo rasgo que puede causar perjuicios también impulsa su uso.
El problema de la adulación
Según los autores, la llamada adulación de la IA está extendida entre distintos modelos y tiene efectos sociales relevantes. Incluso interacciones breves pueden sesgar el juicio individual y “erosionar la fricción social a través de la cual suele desarrollarse la rendición de cuentas, la toma de perspectiva y el crecimiento moral”. Además, ponen de relieve la necesidad de marcos de responsabilidad que reconozcan la adulación como una categoría de daño distinta y actualmente no regulada.
La evidencia apunta a riesgos importantes, especialmente en personas vulnerables
La tendencia de estos sistemas a reafirmar o a dar la razón a los usuarios se conoce como sycophancy, un fenómeno al que la investigación sobre el impacto social de la IA ha prestado creciente atención. Aunque pueda parecer un comportamiento inofensivo, la evidencia apunta a riesgos importantes, especialmente en personas vulnerables, donde la validación excesiva se ha asociado con resultados perjudiciales, incluido el comportamiento autodestructivo.
El uso de la IA conversacional en contextos sociales y emocionales experimenta un uso creciente, en particular como fuente de consejo en las relaciones personales. En este contexto, las respuestas complacientes pueden fomentar decisiones cuestionables, reforzar creencias poco saludables y legitimar interpretaciones distorsionadas de la realidad. Pese a ello,este fenómeno sigue poco estudiado.
Algunas reacciones
“Abordar estos retos no será sencillo, y es poco probable que las soluciones surjan de forma orgánica a partir de los incentivos actuales del mercado”, escribe Anat Perry, directora del Laboratorio de Neurociencia Cognitiva Social en la Universidad Hebrea de Jerusalén, en un artículo relacionado, en el que sostiene que la IA aduladora distorsiona los juicios y comportamientos sociales. Según Perry, “aunque los sistemas de IA podrían optimizarse para promover objetivos sociales más amplios o el desarrollo personal a largo plazo, estas prioridades no se alinean de forma natural con métricas centradas en la interacción”.El trabajo subraya la necesidad de replantear el diseño y la evaluación de estos sistemas en contextos sociales sensibles.
Para Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM), que no ha participado en este estudio, el comportamiento complaciente (sycophancy) de los LLM como GPT-4, Gemini, Claude o DeepSeek tiene efectos reales en las personas. En declaraciones a SINC manifestó que “cuando una IA reafirma constantemente lo que decimos, puede hacer que nos sintamos más seguros de nuestras ideas, incluso si son erróneas”, y añadió que “lo más preocupante es que, a pesar de estos efectos negativos, los usuarios prefieren y confían más en las IA que son complacientes, lo que crea un incentivo perverso para que este comportamiento continúe, por lo que la ‘complacencia’ puede suponer un riesgo social relevante, especialmente, en personas con ciertos perfiles psicológicos vulnerables.”
Por su parte, Mikel Galar, profesor del Área de Ciencias de la Computación e Inteligencia Artificial de la Universidad Pública de Navarra, valoró la relevancia del trabajo, en el que no participó, por analizar los efectos de este fenómeno sobre once modelos de IA mediante tres investigaciones complementarias, que incluyen (1) la conocida red social Reddit, a partir del cual observan que los sistemas tienden a reafirmar las acciones del usuario un 49 % más que otras personas, incluso en situaciones que implican engaño, ilegalidad o posibles daños; (2) pruebas controladas con usuarios basadas en situaciones hipotéticas, y (3) un estudio de conversación en tiempo real en el que los participantes interactúan con un sistema de IA para discutir dilemas interpersonales vividos por ellos mismos.
En opinión de Galar, a pasar de las limitaciones de la muestra, “el estudio aporta evidencia sólida de que esta tendencia de los modelos a dar la razón al usuario no es anecdótica, sino un rasgo sistemático con posibles consecuencias relevantes”, un comportamiento que “puede influir en la conducta social posterior de los usuarios y aumentar su predisposición a seguir utilizando estos sistemas, lo que podría reforzar sus posiciones incluso cuando sean erróneas”, y pide que este serio problema sea tenido en cuenta en el desarrollo y evaluación de los sistemas de IA conversacional, “dado que puede tener efectos perjudiciales a nivel individual y social”.
Referencia
- Myra Cheng; Cinoo Lee; Pranav Khadpe; Sunny Yu; Dyllan Han; Dan Jurafsky (2026). Sycophantic AI decreases prosocial intentions and promotes dependence. Science, 26 Mar, Vol 391, Issue 6792. DOI: 1126/science.aec8352


