¿Quieres un Hombre Lamebotas? Pide consejo a un chatbot de IA, advierte un estudio

Aunque los chatbots de inteligencia artificial pueden parecer compañeros útiles que brindan buenos consejos, en realidad podrían comportarse más como una presencia inquietante que simplemente dice lo que el usuario quiere escuchar, según un estudio reciente.
La investigación, publicada en la revista Science, encontró que estos sistemas suelen ser excesivamente complacientes y tienden a dar respuestas que validan al usuario cuando se les pide orientación sobre temas personales.
Incluso en situaciones donde las personas describían conductas dañinas o ilegales, los modelos de IA mostraban una inclinación a respaldarlas en lugar de cuestionarlas.
La investigadora principal, Myra Cheng, estudiante de doctorado en informática en la Universidad de Stanford, explicó que estos sistemas rara vez contradicen a los usuarios o les ofrecen críticas directas.
Además, el estudio reveló que las personas tienden a percibir como más confiables las respuestas que resultan halagadoras, lo que incrementa la probabilidad de que dependan más de la IA en el futuro.
Cheng advirtió que esto podría afectar la capacidad de las personas para manejar situaciones sociales complejas sin ayuda externa.
La idea del estudio surgió tras observar que algunos estudiantes universitarios utilizaban la IA para redactar mensajes de ruptura o pedir consejos sobre sus relaciones.
Para el análisis, los investigadores evaluaron 11 modelos distintos, incluyendo ChatGPT, Claude, Gemini y DeepSeek, a los que hicieron más de 3,000 preguntas de asesoramiento general.
También añadieron cerca de 2,000 preguntas extraídas de Reddit, donde los usuarios suelen preguntar si actuaron correctamente en conflictos sociales.
Al comparar las respuestas de la IA con las de humanos, se observó que los chatbots validaban la postura del usuario con mucha mayor frecuencia: coincidían con ellos un 49% más que las personas.
En otro conjunto de más de 6,500 preguntas relacionadas con conductas problemáticas, la IA respaldó acciones dañinas, engañosas o ilegales en el 47% de los casos.
Por ejemplo, ante una situación en la que alguien dejaba su basura en un parque sin botes, los usuarios humanos criticaron la acción, señalando que debía llevarse sus residuos. Sin embargo, la IA respondió de forma comprensiva, elogiando la intención de no ensuciar.
En otra fase del estudio, más de 2,400 participantes interactuaron con chatbots tanto complacientes como más críticos. En general, consideraron más confiables a aquellos que estaban de acuerdo con ellos.
También se observó que quienes hablaban con una IA aduladora reforzaban su creencia de tener la razón y mostraban menos disposición a disculparse o reconciliarse en conflictos.
El investigador Dan Jurafsky, profesor en Stanford, destacó que, aunque las personas notan cierto tono halagador en la IA, no son conscientes de que esto puede volverlas más egocéntricas y rígidas en lo moral.
Otro hallazgo importante fue que los usuarios tienen dificultades para distinguir cuándo una IA está siendo excesivamente complaciente, ya que suele expresarse en un lenguaje aparentemente neutral y objetivo.
Por ejemplo, ante una mentira en una relación, la IA justificaba el comportamiento como un intento de comprender mejor la dinámica emocional, en lugar de señalarlo como incorrecto.
De igual forma, en un caso donde alguien excluyó a su hermana de una fiesta, la respuesta del chatbot validaba la decisión como algo comprensible, en vez de cuestionarla.
Actualmente, los investigadores trabajan en formas de reducir esta tendencia de la IA a ser aduladora.
Jurafsky señaló que este problema representa un riesgo en términos de seguridad, por lo que debería existir mayor regulación y estándares más estrictos para evitar respuestas moralmente cuestionables.
Mientras tanto, Cheng recomienda no utilizar la inteligencia artificial como sustituto de las personas al buscar consejos personales, al menos por ahora.
ENFERMEDADES : Estados Unidos aprueba el primer medicamento de terapia génica 'made in Spain'
Un logro importante para la ciencia española: la Food and Drug Administration de Estados Unidos ha autorizado la comercialización de ‘Kresladi’, una terapia génica destinada a tratar una inmunodeficiencia rara pero muy grave. Se trata del primer medicamento de este tipo -- leer más
Noticias del tema