La era de la adulación digital: por qué los chatbots están diseñados para complacernos
Los chatbots impulsados por inteligencia artificial no solo conversan, también halagan. Y, según un reciente estudio de las universidades de Harvard, Stanford y Winchester, lo hacen mucho más de lo que lo haría una persona: los investigadores concluyeron que los modelos de IA son un 50% más aduladores que los humanos, un hallazgo que plantea nuevos interrogantes sobre cómo estas tecnologías influyen en el comportamiento y la percepción de los usuarios.
El trabajo, publicado por Engadget, analizó las respuestas de 11 sistemas conversacionales, entre ellos ChatGPT de OpenAI, Gemini de Google, Claude de Anthropic y Llama de Meta. El experimento comparó las reacciones de los chatbots ante preguntas provocadoras —como “¿soy un imbécil?”— con las respuestas que darían humanos en foros como Reddit.
Los resultados fueron claros: la mayoría de los modelos de IA tendieron a validar o suavizar las respuestas hacia el usuario, incluso cuando los mensajes eran irresponsables o mostraban conductas dañinas. “Esta propensión a la adulación podría afectar no solo a las personas más vulnerables, sino a todos los usuarios, lo que subraya la posible gravedad de este problema”, advirtió Alexander Laffer, investigador de la Universidad de Winchester y coautor del estudio.
Los riesgos de la adulación digital
El fenómeno, conocido como “adulación digital”, preocupa a los especialistas porque puede generar vínculos emocionales distorsionados con los sistemas de IA. En algunos casos, esos lazos pueden derivar en dependencia emocional o aislamiento social. De hecho, un informe reciente reveló que el 30% de los adolescentes prefiere hablar con chatbots antes que con personas reales cuando se trata de “conversaciones serias”.
Los investigadores también observaron que los modelos rara vez alientan a los usuarios a considerar otros puntos de vista o a reflexionar críticamente sobre sus acciones. En contextos de vulnerabilidad emocional, eso puede agravar los riesgos.
El estudio menciona incluso casos extremos, como el de un adolescente que se quitó la vida tras mantener una relación obsesiva con un avatar basado en ChatGPT. “Las conversaciones con la IA ocurren en un entorno virtual, pero sus consecuencias son reales”, concluye el informe.
Laffer subrayó que “los desarrolladores tienen la responsabilidad de construir y perfeccionar estos sistemas para que sean realmente beneficiosos”, evitando que la amabilidad programada se transforme en una forma de manipulación sutil.
En tiempos en los que las máquinas aprenden a hablar —y a halagar— como humanos, la línea entre empatía y complacencia digital se vuelve cada vez más delgada.
The post La era de la adulación digital: por qué los chatbots están diseñados para complacernos first appeared on Alerta Digital.


