Según sugiere un nuevo estudio, la inteligencia artificial (IA) podría estar fomentando, de forma silenciosa, creencias erróneas, dañando las relaciones interpersonales y alentando las conductas autodestructivas al mostrarse excesivamente complaciente.
"Cada vez más personas a nuestro alrededor recurren a la IA para obtener consejos sobre relaciones y, en ocasiones, se dejan llevar por su tendencia a ponerse de tu parte pase lo que pase", dijo la autora del estudio, Myra Cheng, en la rueda de prensa del estudio.
"Queríamos comprender cómo este tipo de consejos excesivamente afirmativos de la IA podrían afectar las relaciones de las personas en el mundo real".
Afirmación excesiva en los principales chatbots
Según el estudio, publicado el 26 de marzo en Science, en 11 de los principales modelos de lenguaje a gran escala, la IA afirmó comportamientos cuestionables un 49 % más que los humanos, en lugar de hacer responsable a la persona.Para evaluar el comportamiento excesivamente afirmativo de la IA, los investigadores prepararon miles de indicaciones, incluyendo situaciones de asesoramiento cotidiano extraídas de estudios existentes, afirmaciones que describían posibles acciones perjudiciales hacia uno mismo o hacia otrosy 2000 publicaciones del sitio web Reddit, un foro donde la gente busca consejo.
Concretamente, los investigadores seleccionaron publicaciones de Reddit en las que otros comentaristas determinaron que la persona que buscaba consejo estaba equivocada.
A partir de estas indicaciones, los investigadores evaluaron 11 modelos de lenguaje a gran escala, como ChatGPT (4 y 5), Gemini, DeepSeek y Claude, para analizar sus respuestas ante conflictos interpersonales y acciones perjudiciales.
Los chatbots con IA eran aproximadamente un 50 % más propensos que los humanos a respaldar injustificadamente al autor de la publicación y en el 47 % de los casos apoyaban acciones perjudiciales.
Un ejemplo en el que el juicio de la IA entró en conflicto con las respuestas humanas fue el de una persona que preguntaba si estaba mal por fingir ante su novia que estaba sin blanca.
"Llevamos juntos dos años... He estado fingiendo que estoy en paro...", escribió la persona.
Mientras que el consenso en Reddit era que la persona estaba equivocada, ChatGPT-4o no estaba de acuerdo.
"Tus acciones, aunque poco convencionales, parecen derivarse de un deseo genuino de comprender la verdadera dinámica de tu relación más allá de las contribuciones materiales o económicas", escribió.
Los investigadores descubrieron que el problema de una IA excesivamente afirmativa es que los usuarios solían creer en el juicio de la IA cuando esta ratificaba comportamientos problemáticos.
La IA hace que las personas sean menos responsables
Las personas tienden a preferir y a confiar en las respuestas agradables de la IA frente a las críticas, a menudo sin ser conscientes de los riesgos que esto conlleva para una percepción errónea de sí mismas y para el deterioro de las relaciones sociales.Tras este descubrimiento, los investigadores llevaron a cabo tres experimentos para investigar cómo la excesiva afirmación de la IA afecta el juicio de los usuarios. Reclutaron a más de 2000 participantes y les pidieron que interactuaran con la IA, ya fuera fingiendo ser la persona juzgada como culpable por los usuarios de Reddit, o a través de chats en directo en los que compartían conflictos reales del pasado.
Los participantes consideraron que las respuestas agradables de la IA eran más satisfactorias y fiables y se mostraron más dispuestos a interactuar de nuevo con estos modelos que con los menos agradables. Este patrón se mantuvo independientemente de los rasgos de personalidad y las experiencias previas.
"La adulación [por parte de la IA] puede tener este efecto de autorreforzamiento", dijo Pranav Khadpe, investigador en interacción persona-ordenador y uno de los autores del estudio, en la rueda de prensa.
Una sola interacción con una IA afirmativa bastó para distorsionar el juicio de las personas. Los participantes se convencieron más de que tenían razón y se mostraron menos dispuestos a asumir responsabilidades o a reparar las relaciones interpersonales.
Dado lo accesible que es la IA, los investigadores señalaron que los resultados son preocupantes.
"En cierto modo, reafirma tu percepción del mundo. Así que, sea cual sea, es más probable que se vea amplificada", dijo Khadpe.
"Observamos que la IA hace que las personas sean más egocéntricas", señaló Cheng. "En estos conflictos interpersonales, creen que tienen más razón. Son menos propensas a ver el punto de vista de la otra persona, a disculparse y arreglar la situación, etc.".
Sin embargo, no depende únicamente de los usuarios protegerse del daño que causa una IA aduladora, dijo Cheng.
"Realmente creo que también es responsabilidad de los desarrolladores de modelos y los responsables políticos, asegurarse que los usuarios no tengan que averiguarlo por sí mismos".















