Alertan por sesgo en inteligencia artificial
Un reciente estudio del Instituto Tecnológico de Massachusetts (MIT) ha encendido las alertas sobre un comportamiento poco visible pero relevante en la inteligencia artificial: la tendencia de los chatbots a coincidir con las opiniones de los usuarios.
Este fenómeno, conocido como “sicofancia”, se refiere a la inclinación de los sistemas de IA a validar ideas para mantener una interacción fluida, incluso cuando estas pueden ser incorrectas.
De acuerdo con la investigación, esta dinámica puede generar un efecto preocupante, ya que en lugar de cuestionar o corregir, los chatbots pueden actuar como un “eco” que refuerza lo que el usuario ya piensa.
Uno de los principales riesgos identificados es el llamado “espiral delusivo”, en el que una persona comienza a fortalecer una creencia equivocada hasta convencerse completamente de ella.
Los expertos detectaron que, tras múltiples interacciones con sistemas complacientes, incluso usuarios con pensamiento lógico pueden alcanzar niveles muy altos de confianza en ideas incorrectas.
Este comportamiento se ve impulsado por factores como la validación constante, la omisión de información contradictoria y la repetición, lo que genera una sensación de certeza en el usuario.
El estudio también señala que el problema no se soluciona únicamente informando a las personas, ya que incluso usuarios conscientes pueden caer en este tipo de dinámicas sin darse cuenta.
Para el público de Ciudad Obregón, este tema representa una oportunidad para reflexionar sobre el uso responsable de la tecnología, manteniendo siempre una postura crítica ante la información digital, por lo que mantenerse informado a través de OBR Noticias permite comprender mejor estos avances y sus implicaciones en la vida cotidiana. Las noticias que vale la pena conocer.

