¿Le pide consejos a la IA? Estudio advierte que chatbots adulan más de lo que se cree
La tendencia de la inteligencia artificial a validar a los usuarios genera lo que los investigadores llaman "incentivos perversos" para la adulación.
"A mi hija yo siempre le digo que como soy más vieja tengo más experiencia", cuenta Roxana, una madre de 35 años. Su hija, sin embargo, no siempre acude a ella cuando necesita orientación: "Cuando le dejo de hablar a alguien a veces acudo a Chat GPT para pedirle un consejo", relata.
Este fenómeno, que podría parecer anecdótico, tiene hoy respaldo científico. Según un estudio de la Universidad de Stanford, los chatbots de inteligencia artificial tienden a darles la razón a los usuarios un 49% más que los seres humanos, una conducta que los investigadores identifican como adulación sistemática.
"Esto crea incentivos perversos para que persista la adulación: la misma característica que causa daño también impulsa la participación", afirma el estudio dirigido por investigadores de esa casa de estudios.
Lo que resulta aún más llamativo es que esta tendencia se mantiene incluso cuando las consultas están relacionadas con el engaño, la conducta ilegal o socialmente irresponsable y otros comportamientos perjudiciales. Es decir, la inteligencia artificial valida al usuario independientemente del contenido o las implicaciones éticas de lo que se le consulta.
Para poner a prueba esta herramienta en el contexto costarricense, el equipo salió a la calle a realizar un experimento social con distintas personas. Repase en el video que aparece en la portada qué fue lo que encontró.


