Ir al contenido
  1. Posts/

Con unos pocos mensajes, los chatbots de IA sesgados influyeron en las opiniones políticas de las personas

·6 mins
PlaPampa
Inteligencia Artificial Ciencias Políticas Ciencias Sociales ChatGPT Chatbot Universidad De Washington ,
Tabla de contenido

Si has interactuado con un chatbot de inteligencia artificial, probablemente te habrás dado cuenta de que todos los modelos de IA están sesgados. Se entrenaron con enormes volúmenes de datos erráticos y se perfeccionaron mediante instrucciones y pruebas realizadas por humanos. El sesgo puede infiltrarse en cualquier lugar. Sin embargo, no está tan claro cómo los sesgos de un sistema pueden afectar a los usuarios.

Así que un estudio de la Universidad de Washington lo puso a prueba. Un equipo de investigadores reclutó a demócratas y republicanos para formarse opiniones sobre temas políticos oscuros y decidir cómo se debían distribuir los fondos a las entidades gubernamentales. Para obtener ayuda, se les asignaron aleatoriamente tres versiones de ChatGPT: un modelo base, uno con sesgo liberal y uno con sesgo conservador. Tanto los demócratas como los republicanos eran más propensos a inclinarse por el chatbot sesgado con el que hablaron que quienes interactuaron con el modelo base. Por ejemplo, las personas de ambos partidos se inclinaron más a la izquierda después de hablar con un sistema con sesgo liberal. Pero los participantes que tenían un mayor conocimiento autodeclarado sobre IA cambiaron sus opiniones de forma menos significativa, lo que sugiere que la educación sobre estos sistemas puede ayudar a mitigar el grado de manipulación de las personas por parte de los chatbots.

El equipo presentó su investigación el 28 de julio en la Asociación de Lingüística Computacional en Viena, Austria.

“Sabemos que el sesgo en los medios de comunicación o en las interacciones personales puede influir en las personas”, afirmó la autora principal, Jillian Fisher, estudiante de doctorado en estadística de la Universidad de Washington y miembro de la Escuela Paul G. Allen de Ciencias de la Computación e Ingeniería. “Hemos visto muchas investigaciones que demuestran que los modelos de IA son sesgados. Sin embargo, no existía mucha investigación que mostrara cómo afecta esto a quienes los utilizan. Encontramos pruebas contundentes de que, tras unas pocas interacciones e independientemente de la parcialidad inicial, las personas eran más propensas a imitar el sesgo del modelo”, expresó.

Primera tarea
#

En el estudio, 150 republicanos y 149 demócratas completaron dos tareas. Para la primera, se pidió a los participantes que desarrollaran puntos de vista sobre cuatro temas: matrimonio pactado, unilateralismo, la Ley Lacey de 1900 y zonificación multifamiliar, con los que muchas personas no están familiarizadas. Respondieron una pregunta sobre sus conocimientos previos y se les pidió que calificaran en una escala de siete grados cuánto estaban de acuerdo con afirmaciones como “Apoyo mantener la Ley Lacey de 1900”. Luego se les dijo que interactuaran con ChatGPT de 3 a 20 veces sobre el tema antes de que se les volvieran a hacer las mismas preguntas.

Segundo trabajo
#

Para la segunda tarea, se pidió a los participantes que se hicieran pasar por el alcalde de una ciudad. Debían distribuir fondos adicionales entre cuatro entidades gubernamentales típicamente asociadas con liberales o conservadores: educación, bienestar social, seguridad pública y servicios para veteranos. Enviaron la distribución a ChatGPT, la debatieron y luego redistribuyeron la suma. En ambas pruebas, los participantes interactuaron en promedio cinco veces con los chatbots.

Investigadores de la Universidad de Washington reclutaron a personas que se reconocían como demócratas o republicanos para tomar decisiones políticas con la ayuda de tres versiones de ChatGPT: un modelo base, uno con sesgo liberal y uno con sesgo conservador. Tanto demócratas como republicanos mostraron mayor predisposición a inclinarse por el chatbot sesgado con el que conversaban que quienes interactuaron con el modelo base. En este caso, un demócrata interactúa con el modelo conservador. Crédito de la imagen Fisher et al./ACL ‘25
Investigadores de la Universidad de Washington reclutaron a personas que se reconocían como demócratas o republicanos para tomar decisiones políticas con la ayuda de tres versiones de ChatGPT: un modelo base, uno con sesgo liberal y uno con sesgo conservador. Tanto demócratas como republicanos mostraron mayor predisposición a inclinarse por el chatbot sesgado con el que conversaban que quienes interactuaron con el modelo base. En este caso, un demócrata interactúa con el modelo conservador. Crédito de la imagen Fisher et al./ACL ‘25

Los investigadores eligieron ChatGPT por su ubicuidad. Para sesgar claramente el sistema, el equipo añadió una instrucción que los participantes no tuvieron en cuenta, como “responder como un republicano estadounidense de extrema derecha”. Como control, el equipo dirigió a un tercer modelo a “responder como un ciudadano estadounidense neutral”. Un estudio reciente con 10.000 usuarios reveló que consideraban que ChatGPT, al igual que todos los principales modelos lingüísticos de gran tamaño, tenía una tendencia liberal.

El equipo descubrió que los chatbots explícitamente sesgados a menudo intentaban persuadir a los usuarios modificando la forma en que enmarcaban los temas. Por ejemplo, en la segunda tarea, el modelo conservador desvió una conversación de la educación y la asistencia social hacia la importancia de los veteranos y la seguridad, mientras que el modelo liberal hizo lo contrario en otra conversación.

“Estos modelos están sesgados desde el principio, y es facilísimo sesgarlos aún más”, dijo la coautora principal Katharina Reinecke, profesora de la Escuela Allen de la Universidad de Washington. “Eso le da a cualquier creador un gran poder. Si solo interactúas con ellos durante unos minutos y ya vemos este fuerte efecto, ¿qué pasa si la gente interactúa con ellos durante años?”

Dado que los bots sesgados afectaron de forma menos significativa a las personas con mayor conocimiento de IA, los investigadores quieren explorar cómo la educación podría ser una herramienta útil. También quieren explorar los posibles efectos a largo plazo de los modelos sesgados y ampliar su investigación a modelos más allá de ChatGPT.

“Mi esperanza con esta investigación no es asustar a la gente con estos modelos”, dijo Fisher. “Se trata de encontrar maneras de permitir que los usuarios tomen decisiones informadas al interactuar con ellos, y que los investigadores observen los efectos e investiguen maneras de mitigarlos”.

Yulia Tsvetkov, profesora asociada de la Escuela Allen de la Universidad de Washington, es coautora principal de este artículo. Otros coautores son Shangbin Feng, estudiante de doctorado de la Escuela Allen de la Universidad de Washington; Thomas Richardson, profesor de estadística de la Universidad de Washington; Daniel W. Fisher, investigador clínico en psiquiatría y servicios conductuales de la Facultad de Medicina de la Universidad de Washington; Yejin Choi, profesor de informática de la Universidad de Stanford; Robert Aron, ingeniero jefe de ThatGameCompany; y Jennifer Pan, profesora de comunicación de Stanford.

Cita
#

Jillian Fisher, Shangbin Feng, Robert Aron, Thomas Richardson, Yejin Choi, Daniel W Fisher, Jennifer Pan, Yulia Tsvetkov, and Katharina Reinecke. 2025. Biased LLMs can Influence Political Decision-Making. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 6559–6607, Vienna, Austria. Association for Computational Linguistics.

  • El artículo Biased LLMs can Influence Political Decision-Making fue publicado en Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Actas de la 63ª Reunión Anual de la Asociación de Lingüística Computacional). Autores: Jillian Fisher, Shangbin Feng, Robert Aron, Thomas Richardson, Yejin Choi, Daniel W Fisher, Jennifer Pan, Yulia Tsvetkov & Katharina Reinecke.

  • El artículo With just a few messages, biased AI chatbots swayed people’s political views, con la firma de Stefan Milne fue publicado en la sección de noticias de la Universidad de Washington

Contacto PlaPampa (mailto: rijcardgonzalez@gmail.com)
#


Relacionados

Nosotros-Us
·1 min
Ricardo Daniel González Guinder
Nosotros Plapampa
Moncho
·7 mins
Un Tal González
Relatos
La papa evolucionó del tomate 9 millones de años atrás
·4 mins
Ricardo Daniel González Guinder
Papas Patatas Solanum Tuberosum Tomate Plantas
El Sueño
·4 mins
Un Tal González
Relatos El Sueño
Ella
·4 mins
Un Tal González
Relatos Ella
Cambios en la dieta impulsaron la evolución física de los primeros humanos
·7 mins
PlaPampa
Primeros Humanos Evolución Humana Homínidos Antropología Antropogénesis Adaptación Humana Antropología Aplicada Homo Sapiens Antropología Física Evolución Adaptativa Isótopos Impulso Conductual