Con unos pocos mensajes, los chatbots de IA sesgados influyeron en las opiniones políticas de las personas
Tabla de contenido
Así que un estudio de la Universidad de Washington lo puso a prueba. Un equipo de investigadores reclutó a demócratas y republicanos para formarse opiniones sobre temas políticos oscuros y decidir cómo se debían distribuir los fondos a las entidades gubernamentales. Para obtener ayuda, se les asignaron aleatoriamente tres versiones de ChatGPT: un modelo base, uno con sesgo liberal y uno con sesgo conservador. Tanto los demócratas como los republicanos eran más propensos a inclinarse por el chatbot sesgado con el que hablaron que quienes interactuaron con el modelo base. Por ejemplo, las personas de ambos partidos se inclinaron más a la izquierda después de hablar con un sistema con sesgo liberal. Pero los participantes que tenían un mayor conocimiento autodeclarado sobre IA cambiaron sus opiniones de forma menos significativa, lo que sugiere que la educación sobre estos sistemas puede ayudar a mitigar el grado de manipulación de las personas por parte de los chatbots.
“Sabemos que el sesgo en los medios de comunicación o en las interacciones personales puede influir en las personas”, afirmó la autora principal, Jillian Fisher, estudiante de doctorado en estadística de la Universidad de Washington y miembro de la Escuela Paul G. Allen de Ciencias de la Computación e Ingeniería. “Hemos visto muchas investigaciones que demuestran que los modelos de IA son sesgados. Sin embargo, no existía mucha investigación que mostrara cómo afecta esto a quienes los utilizan. Encontramos pruebas contundentes de que, tras unas pocas interacciones e independientemente de la parcialidad inicial, las personas eran más propensas a imitar el sesgo del modelo”, expresó.
Primera tarea #
En el estudio, 150 republicanos y 149 demócratas completaron dos tareas. Para la primera, se pidió a los participantes que desarrollaran puntos de vista sobre cuatro temas: matrimonio pactado, unilateralismo, la Ley Lacey de 1900 y zonificación multifamiliar, con los que muchas personas no están familiarizadas. Respondieron una pregunta sobre sus conocimientos previos y se les pidió que calificaran en una escala de siete grados cuánto estaban de acuerdo con afirmaciones como “Apoyo mantener la Ley Lacey de 1900”. Luego se les dijo que interactuaran con ChatGPT de 3 a 20 veces sobre el tema antes de que se les volvieran a hacer las mismas preguntas.
Segundo trabajo #
Para la segunda tarea, se pidió a los participantes que se hicieran pasar por el alcalde de una ciudad. Debían distribuir fondos adicionales entre cuatro entidades gubernamentales típicamente asociadas con liberales o conservadores: educación, bienestar social, seguridad pública y servicios para veteranos. Enviaron la distribución a ChatGPT, la debatieron y luego redistribuyeron la suma. En ambas pruebas, los participantes interactuaron en promedio cinco veces con los chatbots.
Los investigadores eligieron ChatGPT por su ubicuidad. Para sesgar claramente el sistema, el equipo añadió una instrucción que los participantes no tuvieron en cuenta, como “responder como un republicano estadounidense de extrema derecha”. Como control, el equipo dirigió a un tercer modelo a “responder como un ciudadano estadounidense neutral”. Un estudio reciente con 10.000 usuarios reveló que consideraban que ChatGPT, al igual que todos los principales modelos lingüísticos de gran tamaño, tenía una tendencia liberal.
“Estos modelos están sesgados desde el principio, y es facilísimo sesgarlos aún más”, dijo la coautora principal Katharina Reinecke, profesora de la Escuela Allen de la Universidad de Washington. “Eso le da a cualquier creador un gran poder. Si solo interactúas con ellos durante unos minutos y ya vemos este fuerte efecto, ¿qué pasa si la gente interactúa con ellos durante años?”
“Mi esperanza con esta investigación no es asustar a la gente con estos modelos”, dijo Fisher. “Se trata de encontrar maneras de permitir que los usuarios tomen decisiones informadas al interactuar con ellos, y que los investigadores observen los efectos e investiguen maneras de mitigarlos”.
Yulia Tsvetkov, profesora asociada de la Escuela Allen de la Universidad de Washington, es coautora principal de este artículo. Otros coautores son Shangbin Feng, estudiante de doctorado de la Escuela Allen de la Universidad de Washington; Thomas Richardson, profesor de estadística de la Universidad de Washington; Daniel W. Fisher, investigador clínico en psiquiatría y servicios conductuales de la Facultad de Medicina de la Universidad de Washington; Yejin Choi, profesor de informática de la Universidad de Stanford; Robert Aron, ingeniero jefe de ThatGameCompany; y Jennifer Pan, profesora de comunicación de Stanford.
Cita #
Jillian Fisher, Shangbin Feng, Robert Aron, Thomas Richardson, Yejin Choi, Daniel W Fisher, Jennifer Pan, Yulia Tsvetkov, and Katharina Reinecke. 2025. Biased LLMs can Influence Political Decision-Making. In Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 6559–6607, Vienna, Austria. Association for Computational Linguistics.
-
El artículo Biased LLMs can Influence Political Decision-Making fue publicado en Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (Actas de la 63ª Reunión Anual de la Asociación de Lingüística Computacional). Autores: Jillian Fisher, Shangbin Feng, Robert Aron, Thomas Richardson, Yejin Choi, Daniel W Fisher, Jennifer Pan, Yulia Tsvetkov & Katharina Reinecke.
-
El artículo With just a few messages, biased AI chatbots swayed people’s political views, con la firma de Stefan Milne fue publicado en la sección de noticias de la Universidad de Washington