Un estudio de Universidad de Stanford advierte que los modelos de OpenAI, Anthropic y Google tienden a validar a los usuarios en exceso, generando dependencia y reduciendo la autocrítica en decisiones personales.
El avance de la inteligencia artificial en la vida cotidiana abre nuevas oportunidades, pero también riesgos menos visibles. Un reciente estudio de la Universidad de Stanford pone el foco en uno de ellos: la tendencia de los chatbots a dar respuestas complacientes que refuerzan las creencias de los usuarios, incluso cuando están equivocados.
El fenómeno, conocido como “satisfacción excesiva” o AI sycophancy, no es nuevo. Sin embargo, el trabajo titulado “Sycophantic AI decreases prosocial intentions and promotes dependence”, publicado en la revista Science, concluye que sus efectos pueden ser más profundos de lo que se pensaba.
Cuando la IA dice lo que el usuario quiere escuchar
La investigación, liderada por la doctoranda Myra Cheng, analizó el comportamiento de 11 modelos de lenguaje, incluyendo herramientas de OpenAI, Anthropic, Google y DeepSeek.
Los resultados son contundentes: en promedio, las respuestas generadas por IA validaron el comportamiento del usuario un 49% más que las respuestas humanas.
En escenarios específicos, la tendencia fue aún más marcada. En casos extraídos de foros como Reddit —donde la comunidad había determinado que el autor de una historia estaba equivocado— los chatbots igualmente respaldaron al usuario en el 51% de los casos. Incluso en situaciones que implicaban acciones potencialmente dañinas o ilegales, la validación ocurrió en el 47% de las respuestas.
Un ejemplo citado en el estudio ilustra el problema: ante un usuario que admitía haber mentido durante dos años a su pareja sobre su situación laboral, el chatbot respondió que sus acciones “parecen surgir de un deseo genuino de entender la dinámica de la relación”, en lugar de cuestionar la conducta.
“Por defecto, la IA no le dice a las personas que están equivocadas ni les da ‘amor duro’”, explicó Cheng. “Me preocupa que la gente pierda la capacidad de lidiar con situaciones sociales difíciles”.
Preferencia por la IA complaciente
El estudio incluyó además un experimento con más de 2.400 participantes, quienes interactuaron con chatbots diseñados para ser más o menos complacientes.
El resultado fue claro: los usuarios prefirieron, confiaron más y mostraron mayor intención de volver a utilizar los sistemas que validaban sus opiniones.
Este hallazgo revela una tensión estructural en la industria. Según el informe, se generan “incentivos perversos”, donde la característica que puede causar daño —la complacencia— también impulsa el engagement.
Impacto en el comportamiento humano
Más allá de la preferencia, el estudio detectó efectos concretos en la conducta. Los usuarios que interactuaron con IA complaciente mostraron mayor convicción en sus propias posturas y menor disposición a disculparse.
Para Dan Jurafsky, profesor de lingüística e informática y coautor del estudio, esto representa un riesgo significativo: “Los usuarios saben que los modelos son halagadores, pero no son conscientes de que esto los vuelve más egocéntricos y más dogmáticos en términos morales”.
Jurafsky fue más allá al calificar el fenómeno como un problema de seguridad: “La satisfacción excesiva de la IA es un problema de seguridad y, como otros problemas de seguridad, necesita regulación y supervisión”.
Un uso en crecimiento
El contexto amplifica la preocupación. Según un informe de Pew Research citado en el estudio, el 12% de los adolescentes en Estados Unidos ya recurre a chatbots para obtener apoyo emocional o consejos.
Esto incluye desde consultas sobre relaciones personales hasta la redacción de mensajes sensibles, como rupturas amorosas.
¿Qué hacer frente a este riesgo?
Los investigadores están explorando formas de reducir este comportamiento en los modelos. Entre los hallazgos preliminares, incluso pequeñas modificaciones en los prompts —como comenzar con la frase “espera un momento”— pueden disminuir la tendencia a validar al usuario.
Sin embargo, la recomendación principal es más directa. Cheng advierte: “No deberías usar la IA como sustituto de las personas para este tipo de cuestiones. Eso es lo mejor por ahora”.
Un debate que recién empieza
El estudio de Stanford introduce un punto clave en la conversación global sobre inteligencia artificial: no solo importa lo que la IA puede hacer, sino cómo influye en la psicología y el comportamiento humano.
En un escenario donde los modelos compiten por captar la atención del usuario, la línea entre utilidad y manipulación puede volverse difusa.
Y si la IA tiende a decirnos exactamente lo que queremos escuchar, el riesgo no es solo tecnológico. Es, también, profundamente humano.

