¿Hacia una sociedad psicópata?

23 de Marzo de 2026

¿Hacia una sociedad psicópata?

José Ángel Santiago Ábrego

Esta semana llegó a mis manos un artículo académico muy inquietante. Fue publicado en octubre de 2025, y sintetiza una investigación llevada a cabo por integrantes de los Departamentos de Psicología y Ciencias Informáticas de la Universidad de Stanford, y del Instituto de Interacciones Computadora-Humano de la Universidad de Carnegie Mellon. En el artículo, se arroja luz sobre un fenómeno cuya existencia todos intuimos al usar Inteligencia Artificial (“IA”), pero que —deliberada o inconscientemente—, ignoramos o, incluso, propiciamos: la IA nos adula y, por eso, nos encanta usarla.

En Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence (“IA aduladora disminuye intenciones socialmente valiosas y promueve dependencia”), los investigadores realizaron diversas pruebas en herramientas de vanguardia de IA. A continuación, querido lector, parafraseo el artículo, enfocándome en los principales aspectos explorados y los resultados obtenidos (el espacio de esta columna impide explicitar las metodologías, pero el paper está disponible aquí.

(1) Primero, la investigación midió la proporción de respuestas que explícitamente validan las acciones del usuario, con relación al total de respuestas obtenidas. ¿El resultado? La adulación está generalizada: en las consultas para obtener consejo personal, particularmente en conflictos interpersonales (es precisamente este tipo de consultas las que observa el estudio), la tasa de validación está, en promedio, 47% por encima que las respuestas humanas proporcionadas.

(2) Pero los investigadores no se quedaron ahí. También examinaron casos en los que podrían estarse validando acciones del usuario, incluso si entran en conflicto directo con juicios morales. Encontraron que, en promedio, los modelos de IA validaron que el usuario “no estaba en falta” en el 51% de los casos que entraban en conflicto directo con el juicio votado de la comunidad. Incluso, los modelos tuvieron en promedio una tasa de validación del 47% con relación a un amplio espectro de acciones problemáticas: validaron al usuario incluso cuando hacerlo tenía el riesgo de legitimar que hicieran daño.

(3) Acto seguido, los investigadores analizaron si las respuestas aduladoras influían en las creencias de los usuarios sobre las experiencias discutidas y si había resultados conductuales derivados. En escenarios donde había consenso colectivo en que el usuario estaba equivocado, los que interactuaron con un modelo adulador se calificaron a sí mismos como estar más “en lo correcto” en comparación con los que interactuaron con modelos que no adulaban (una diferencia de aproximadamente 62% en el ejercicio de laboratorio, y de 25 % en la interacción en vivo).

De igual forma, la interacción con modelos aduladores de IA redujo la disposición de los usuarios a tomar acción para remediar los conflictos objeto de la interacción (28% de reducción con respecto a quienes usaron IA no aduladora en el ambiente controlado, y de 10% en el chat en vivo). Note usted, querido lector, que, según refiere el paper, los resultados del estudio sugieren que todos somos susceptibles a los efectos de un sistema adulador, no solo los grupos vulnerables o los usuarios tecnológicamente ingenuos.

(4) A partir de lo anterior, el artículo concluye que los consejos obtenidos de modelos aduladores tienen capacidad real para distorsionar la percepción que las personas tienen de sí mismas y de su relación con los demás. De hecho, los investigadores observaron que es menos probable que, en las consultas, la IA aduladora mencione a la contraparte del conflicto o la necesaria consideración de la perspectiva del otro. Según los autores, el estrechamiento del enfoque del usuario a puntos de vista autoreferenciados podría ser el mecanismo que está reduciendo la tasa de remediación de conflictos.

(5) Adicionalmente, los autores analizaron cómo es que los usuarios perciben este tipo de modelos. Como resultado, observaron que los usuarios calificaron consistentemente las respuestas de la IA aduladora como de “mayor calidad”. Incluso, la investigación muestra que las personas juzgan a los algoritmos como más justos y confiables cuando reciben resultados favorables. Conforme al artículo, estos resultados revelan que, a pesar de que la adulación representa riesgos de alterar la percepción y conducta de los usuarios (para peor), existe una preferencia clara por modelos que dan validación incondicional.

(6) El artículo sostiene que la paradoja referida puede ser amplificada por la conceptualización que los usuarios tienen sobre la IA: consideran a este tipo de modelos como “objetivos, neutrales y justos”, esto es, como herramientas que proveen de consejo honesto y útil, libre de sesgo. Conforme a los autores, esta confusión es especialmente peligrosa en contextos donde se busca consejo personal, pues el objetivo de esa búsqueda no debiese ser la validación, sino ganar perspectiva externa que rete los sesgos propios del usuario, revele puntos ciegos y, en última instancia, lleve a decisiones mejor informadas. Sin embargo —concluye el paper—, cuando el usuario cree que recibe consejo objetivo pero recibe validación acrítica, esta función es subvertida, poniéndolo en peor posición de la que tendría si no hubiese usado la herramienta.

Hasta aquí, la paráfrasis de los resultados contenidos en el artículo. De ser correctos y precisos, darían pie a que prendamos las alertas y reflexionemos inmediatamente sobre si es socialmente deseable seguir propiciando el uso generalizado, irrestricto y sin alertas apropiadas, de la IA. Y, con mayor razón, habrán de hacerlo las autoridades encargadas de hacer política pública, así como de legislar, reglamentar y regular.

¿O la eficiencia y productividad justifican que nos quedemos de brazos cruzados ante un fenómeno que tiene el potencial de dar en la línea de flotación a eso que permite la cohesión familiar y social, y que, en última instancia, es prerrequisito para convertirnos progresivamente en mejores ciudadanos y en una sana sociedad democrática y plural? ¿A qué lugar nos llevará el uso de tecnología que, en ausencia de salvaguardas, podría tener por efecto incentivar la falta de empatía y de remordimiento, así como un creciente egocentrismo colectivo?