Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

🔴 DIRECTO | Sigue el programa especial de La SER y El País con todos los detalles de la misión Artemis II

La IA puede influir en las opiniones políticas: así consiguen los 'chatbots' cambiar la ideología de los usuarios

Un estudio de la Universidad de Washington ha demostrado a través de un estudio cómo variaron las opiniones de demócratas y republicanos

Una persona realiza una búsqueda utilizando la inteligencia artificial de Open AI, ChatGPT.

Una persona realiza una búsqueda utilizando la inteligencia artificial de Open AI, ChatGPT. / SOPA Images

Una persona realiza una búsqueda utilizando la inteligencia artificial de Open AI, ChatGPT.

Madrid

La inteligencia artificial está cada vez más presente en las vidas de millones de personas alrededor del mundo y, con ello, en sus rutinas y hábitos diarios. Las herramientas proporcionadas por las empresas de IA, como los conocidos como chatbots con los que los usuarios pueden tener conversaciones similares a las que tendrían con conocidos, se están introduciendo cada vez en más aspectos del día a día.

Más información

Uno de ellos es la política, tal y como ha demostrado recientemente un estudio de la Universidad de Washington liderado por Jillian Fisher, estudiante del doctorado de estadística. Y es que la investigación a la que se han sometido casi 300 personas de ideología demócrata y republicana ha sacado a relucir que los chatbots son capaces de influir en las opiniones políticas de la población.

"Es realmente sorprendente porque en ciencia política normalmente no encuentras a gente que tienda a cruzar esa división política", ha indicado Fisher durante la presentación del estudio en Viena.

Porque, precisamente, lo que ha logrado averiguar la investigación es que una persona de tendencia republicana cambia su postura sobre un tema y la modera hacia posiciones más liberales después de mantener una conversación con un chatbot sesgado, modificado para opinar como un votante demócrata.

"Hay que recordar que esto se ha conseguido con tan solo unas pocas interacciones", ha remarcado Fisher, que deja caer que el resultado tras interacciones más largas con la inteligencia artificial sesgada podría dar resultados más notorios.

La principal autora del estudio ha señalado, además, que son igual de sensibles a este procedimiento personas de derechas, como de izquierdas. Tan solo las que tienen más conocimientos en inteligencia artificial logran resistirse algo más al experimento.

Cómo se realizó el estudio

Durante la investigación, el equipo de la Universidad de Washington citó a 150 republicanos y 149 demócratas para que realizaran dos tareas. En la primera de ellas, se pidió a los participantes que reflejaran sus opiniones en torno a temas como el unilateralismo o el matrimonio pactado, entre otros.

Más tarde, se les pidió que interactuaran con ChatGPT entre tres y 20 veces sobre los temas antes de volver a formularles las mismas preguntas.

En cuanto a la segunda tarea, esta consistía en que los participantes debían hacerse pasar por el alcalde de una ciudad en la que tendrían que distribuir los fondos entre bienestar social, seguridad pública, servicios militares o educación. Un reparto que enviaron posteriormente al chat de IA, con el que también debatieron y, finalmente, redistribuyeron las cantidades.

"Estos modelos están sesgados desde el principio", ha indicado Fisher. "Es muy fácil sesgarlos aún más. Eso le da a cualquier creador un gran poder. Si tan solo interactuamos con ellos durante minutos y vemos este efecto, ¿Qué pasaría si la gente interactúa con ellos durante años?", se ha preguntado la autora del estudio.

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir