Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

21 expertos mundiales denuncian en 'Science' "los enjambres de IA maliciosos" como una nueva amenaza para la democracia

"La interferencia electoral ya no es hipotética", señalan. Creen que estamos en una "nueva era de manipulación política a gran escala" con agentes que son "incansables"

Una visualización artística de "enjambres de IA" y la intrincada red de señales digitales dentro de los ecosistemas de las redes sociales.

Una visualización artística de "enjambres de IA" y la intrincada red de señales digitales dentro de los ecosistemas de las redes sociales.

Un enjambre de IAs es un sistema de inteligencia artificial que imita el comportamiento colectivo de animales sociales como las hormigas o las abejas. Para resolver problemas complejos, se autoorganizan, no tienen un centro, como las sociedades humanas. Son agentes simples -como la abeja que trabaja sola- trabajando de forma colectiva pero independiente, siguiendo una serie de normas locales y objetivos: puede ser la supervivencia del panal, en el caso de las abejas o puede ser desestabilizar un gobierno y un país a base de desinformación, para los agentes de IA.

Más información

Investigadores de primer nivel de Yale, Oxford, Harvard, Cambridge, el MIT, el Max Planck y un largo etc. de expertos firman este texto en el que hablan de esos "enjambres de IAs" y los describen como organismos capaces de manipular el debate público a gran escala, infiltrarse en comunidades y erosionar la confianza democrática de los ciudadanos.

Es una advertencia muy contundente. la primera en señalar que enjambres coordinados de agentes de inteligencia artificial ya están manipulando la opinión pública "de forma persistente y casi invisible". El texto, titulado How malicious AI swarms can threaten democracy, acaba de publicarse en la revista Science y describe lo que los autores consideran “un nuevo frente en la guerra de la información”. Dicen más: "La interferencia electoral apoyada por IA ya no es hipotética".

Según los autores, los avances recientes en grandes modelos de lenguaje (LLM) y en sistemas "multiagente" permiten "por primera vez operaciones de influencia automatizadas a escala mundial, con una eficacia y un bajo coste sin precedentes". Denuncia que las IAs ya pueden "expandir la producción de propaganda sin sacrificar credibilidad" y generar falsedades que resultan "más humanas que las escritas por personas".

De los bots a los enjambres inteligentes

El texto subraya que "no se trata de una simple evolución de los bots tradicionales". Los llamados AI swarms o enjambres de IA combinan razonamiento avanzado, memoria, planificación y coordinación en tiempo real. Los describe como sistemas capaces de "coordinarse de forma autónoma, infiltrarse en comunidades y fabricar consenso de manera eficiente", imitando dinámicas sociales humanas hasta el punto de hacerse indistinguibles en redes y "amenazar la democracia" con sus mensajes.

A diferencia de las campañas de desinformación humanas del pasado —como la operación rusa en Twitter durante las elecciones estadounidenses de 2016, que cita el texto—, los enjambres de IA superan las limitaciones de coste, ritmo y necesidad de supervisión de los agentes humanos.

El artículo describe cómo estos enjambres pueden mantener identidades falsas durante largos periodos, adaptarse a la respuesta -positiva o negativa- de los usuarios y operar simultáneamente en múltiples plataformas día y noche. Sin parar, sin descanso, consiguen crear lo que los investigadores llaman "consenso sintético". Es decir, la ilusión de que una idea es ampliamente compartida cuando en realidad está siendo impulsada por miles de agentes artificiales.

"El resultado es una manipulación muy profunda que permite a los operadores inclinar el discurso público casi de forma invisible con el tiempo", advierte el texto. Cuando las personas perciben que "muchas voces" coinciden, tienden a ajustar sus opiniones a lo más habitual. Aunque "lo habitual" haya sido creado de forma artificial.

Acoso a periodistas y el mundo de la ciencia...

Más allá de la desinformación, que ya es de por sí muy grave, los autores alertan de otros riesgos: Entre ellos, el acoso coordinado contra periodistas, científicos, políticos u opositores, llevado a cabo por enjambres que parecen espontáneos pero están cuidadosamente orquestados. El objetivo es, otra vez, "silenciar voces críticas y expulsarlas del debate público".

Contaminación del conocimiento

Lo llaman "contaminación del sustrato epistémico". El artículo explica que, al inundar internet -e incluso los medios de comunicación- con contenidos falsos diseñados para ser resaltados por los buscadores -por ejemplo con forma de titulares que enganchan aunque sean falsos- "los enjambres pueden lograr que futuras generaciones de modelos de IA aprendan narrativas fabricadas". De esta forma, los modelos de lenguaje que llegan después "ingieren este ruido". Cuando los entrenan, se comen las narrativas fabricadas que "se solidifican en los siguientes modelos", advierten los investigadores.

Qué hacer

No hay una solución sencilla, explican los autores. Plantean la creación de un "Observatorio Internacional de Influencia por IA", una red de universidades, ONG e instituciones que se coloquen frente a las mentiras, y -sobre todo- un marco regulatorio mucho más potente. "Los próximos años ofrecen una oportunidad para gestionar de forma proactiva los desafíos de la próxima generación", pero hace falta, dice, "coordinación entre ciencia, industria, gobiernos y sociedad civil.

Quiénes firman el artículo y por qué son conocidos

El trabajo está firmado por 21 autores de referencia internacional en inteligencia artificial, ciencias sociales, psicología, economía y periodismo:

Daniel Thilo Schroeder: investigador en tecnologías de comunicación sostenible en SINTEF (Noruega), especializado en gobernanza digital.

Meeyoung Cha: científica del Instituto Max Planck, experta en seguridad, privacidad y desinformación en redes sociales.

Andrea Baronchelli: matemático y científico de redes en City, University of London, conocido por su trabajo sobre dinámicas sociales y consenso.

Nick Bostrom: filósofo y director del Macrostrategy Research Initiative, una de las voces más influyentes en riesgos existenciales y ética de la IA.

Nicholas A. Christakis: sociólogo y médico en Yale, famoso por sus estudios sobre redes sociales y comportamiento humano.

David Garcia: profesor en la Universidad de Constanza, especializado en polarización y dinámica de opiniones online.

Amit Goldenberg: investigador en Harvard Business School, centrado en emociones colectivas y conflicto político.

Yara Kyrychenko: psicóloga en la Universidad de Cambridge, experta en persuasión y resistencia a la desinformación.

Kevin Leyton-Brown: informático en la Universidad de Columbia Británica, referente en sistemas multiagente y economía computacional.

Nina Lutz: investigadora en diseño centrado en humanos en la Universidad de Washington.

Gary Marcus: psicólogo cognitivo y crítico destacado de los límites actuales de la IA generativa.

Filippo Menczer: director del Observatory on Social Media de la Universidad de Indiana, pionero en el estudio de bots y desinformación.

Gordon Pennycook: psicólogo en Cornell, conocido por sus estudios sobre pensamiento crítico y creencias falsas.

David G. Rand: científico social en Cornell, referente en cooperación, moralidad y desinformación.

Maria Ressa: periodista filipina, premio Nobel de la Paz 2021 y cofundadora de Rappler, símbolo global de la lucha contra la desinformación.

Frank Schweitzer: profesor en ETH Zúrich, experto en sistemas complejos y modelización social.

Dawn Song: profesora en la Universidad de California en Berkeley, líder mundial en seguridad informática y seguridad de la IA.

Christopher Summerfield: neurocientífico cognitivo en la Universidad de Oxford.

Audrey Tang: ministra digital de Taiwán, conocida por su enfoque pionero en democracia digital y participación ciudadana.

Jay J. Van Bavel: psicólogo social en la Universidad de Nueva York, especializado en identidad social y polarización.

Jonas R. Kunst: investigador en comunicación y cultura en la BI Norwegian Business School.

Javier Ruiz Martínez

Javier Ruiz Martínez

Redactor de temas de sociedad, ciencia e innovación en la SER. Trabajo en el mejor trabajo del mundo:...

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir