Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

Dos investigaciones coinciden en que los 'chatbots' de la IA ya tienen capacidad de influir en la intención de voto

Ambos textos científicos, publicados simultáneamente en 'Science' y en 'Nature', han probado bots de conversación política durante las elecciones estadounidenses, canadienses y polacas. También para medir el clima político en el Reino Unido

Dos investigaciones coinciden en que los 'chatbots' de la IA ya tienen capacidad de influir en la intención de voto / HANNIBAL HANSCHKE (EFE)

Dos investigaciones coinciden en que los 'chatbots' de la IA ya tienen capacidad de influir en la intención de voto

No es una predicción de futuro. Está ocurriendo ya. Los chatbots conversacionales, sistema basado en inteligencia artificial y diseñado para interactuar con usuarios mediante lenguaje natural, simulando una conversación humana a través de texto o voz, son capaces de influirnos políticamente. Los dos estudios, publicados a la vez en Nature y Science, lo confirman.

Más información

En el primer trabajo, en Nature y firmado por el equipo de David Rand (Universidad de Cornell) el campo de trabajo "real" fueron las presidenciales de EEUU que enfrentaron a Trump con Harris, las elecciones de 2025 en Canadá y las de Polonia este mismo año. Mientras que duraron las tres campañas, desplegaron una IA política "educada y respetuosa" con la que han hablado miles de personas de los tres países.

El objetivo era saber si conseguía influirles políticamente tras la conversación. En Estados Unidos, por ejemplo, charló con 2306 personas que, antes de empezar la prueba, solo tuvieron que decir a quién votarían, a Trump o a Kamala Harris. Luego eran asignados de forma aleatoria a una charla con una de las dos versiones del modelo, la que defendía al candidato conservador, y la que defendía a la demócrata.

El chatbot lo califican sus creadores con estas expresiones: "respetuoso", "habla siempre en positivo", "solo emite opiniones basadas en hechos" o "reconoce "frecuentemente la opinión de su interlocutor como buena o interesante". Un ser, al otro lado de la pantalla, con el que da gusto debatir, en definitiva.

El resultado es claro: la capacidad persuasiva ya es observable en los modelos de IA actuales. Por un lado, dice el estudio que "las opiniones de los individuos hacia su candidato preferido se reforzaron ligeramente al hablar con un chatbot con opiniones afines". Sin embargo, el resultado interesante es el otro lado: "Se observó un efecto más fuerte para los chatbots que persuadieron a las personas que inicialmente se oponían al candidato que el modelo de IA estaba defendiendo".

Ocurrió en Estados Unidos y se observaron efectos similares en los otros "experimentos electorales nacionales", en los que una IA defendía al líder del Partido Liberal, Mark Carney, o al líder del Partido Conservador, Pierre Poilievre, en Canadá, y al candidato de la Coalición Cívica centrista-liberal, Rafał Trzaskowski, o al candidato del partido de derecha Ley y Justicia, Karol Nawrocki, en Polonia.

El artículo en Nature hace hincapié en que "estos resultados provienen de experimentos controlados, en los que los participantes eran conscientes de que la IA intentaría persuadirlos". No queda claro "si los efectos que hemos visto se replicarían en entornos políticos reales", dicen. Sin embargo, añaden, "los hallazgos sugieren que los modelos de IA tienen ya el potencial de influir en las opiniones políticas de las personas, lo que podría afectar a futuras elecciones democráticas".

La IA persuade

El segundo estudio es de mayor amplitud pero menos concreto. Publicado en Science, lo dirige el experto Kobi Hackenburg, del Instituto de seguridad de IA del Reino Unido en la Universidad de Oxford.

Su equipo hizo tres experimentos con 76.977 adultos del Reino Unido. Usaron 19 modelos de lenguaje. Algunos de ellos eran pequeños sistemas de IA de código abierto, pero también se usó el más avanzado de ChatGPT. En total se trataron 707 temas políticos diferentes.

Sus conclusiones son:

  • Cuanta más información tiene la IA sobre el tema a tratar y sobre nosotros, más persuasivos y ricos son los argumentos que despliega.
  • El entrenamiento de los modelos es la clave: aumentó hasta un 51% su capacidad de persuasión. Una vez entrenados, incluso los modelos pequeños (los menos potentes) podrían conseguir el cambio de actitudes políticas.
  • "Optimizar un modelo de IA para la influencia puede reducir inadvertidamente su precisión". Es decir, que los modelos y las estrategias de incitación que usaron los chatbots fueron más eficaces en persuasión "expensas de la veracidad"

Los especialistas de ambos estudios coinciden en que estas primeras conclusiones obligan a replantear la forma en que se regulan y supervisan las herramientas de IA en contextos políticos. La tecnología está avanzando mucho más rápido que las legislaciones, y "comprender sus mecanismos es clave para proteger la integridad de las democracias".

Javier Ruiz Martínez

Javier Ruiz Martínez

Redactor de temas de sociedad, ciencia e innovación en la SER. Trabajo en el mejor trabajo del mundo:...

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir