Ciencia y tecnología

El chatbot "desmontabulos" del MIT funciona "incluso en las personas más obstinadas" y es portada de 'Science'

El experimento "desafía la idea de que las creencias de los conspiracionistas son impermeables al cambio", dicen en el Instituto tecnológico estadounidense. El estudio señala que la IA puede ser "una nueva herramienta para combatir la desinformación".

La portada del número de Science de esta semana sobre el robot antibulos del MIT

Madrid

La investigación la protagonizan dos mil creyentes de teorías de la conspiración -como el terraplanismo o el negacionismo climático- pero, sobre todo, su rival: este chatbot disponible para seguir haciendo pruebas con él, en inglés. La mayoría de los conspiracionistas que lo han probado han sido convencidos de que estaban equivocados. La razón principal es que no se cansa, tiene más paciencia a la hora de debatir que un humano, pero la clave real es que tiene acceso muy rápido a millones de datos. Además, está entrenado para "combatir" a negacionistas con sus propios argumentos y se ha verificado -de manera humana- que no entrega información falsa.

Más información

El chatbot se llama debunkbot y es una inteligencia artificial basada en Chatgpt 4 turbo, entrenada por científicos del tecnológico de Massachusetts. Podemos traducirlo como "robot desmontabulos", un robot que te saca del búnker de absurdas creencias como los chemtrails, a que no venimos del mono. O que los pájaros no existen. A una persona normal le pueden parecer absurdas pero hay miles de personas en el mundo que las siguen y difunden a través de redes o canales de comunicación como Telegram.

¿Por qué hemos perdido la paciencia para convencer a los conspiranoicos?

La tesis de este estudio del MIT es que "un robot entrenado puede reducir la creencia en teorías de conspiración, incluso en las personas más obstinadas" . "Se ha convertido casi en una verdad inamovible que las personas que están en la madriguera del conejo de las teorias de la conspiración son casi imposibles de convencer ", escriben los autores. Sin embargo, en contraste con esta visión pesimista, ellos creen que "una conversación relativamente breve con un modelo de IA generativa puede producir una disminución grande y duradera en esas creencias, incluso entre los que las tienen profundamente arraigadas".

Las teorías de la conspiración son de lo más disparatadas, explican los científicos. "Suelen señalar el hecho de que alguna organización malévola secreta -reptilianos o iluminati son dos ejemplos- es responsable de un evento o fenómeno". El MIT describe estos sistemas de creencias como "notoriamente persistentes" en redes sociales y señala que "representan una seria amenaza para las sociedades democráticas".

El trabajo dice que "a pesar de su inverosimilitud, una gran parte de la población mundial ha llegado a creer en ellos" y da un dato escalofriante: algunas estimaciones señalan que el 50% de la población de los Estados Unidos cree en teorías de la conspiración de algún tipo. Explica que están movidos por procesos sociológicos y por la motivación para mantener la identidad y sentirse miembros de grupos influyentes. Él MIT sentencia "las intervenciones actuales para desacreditar las teorías de la conspiración entre los creyentes existentes son en gran medida ineficaces".

El experimento

El investigador Thomas Costello y sus colaboradores han investigado si los grandes modelos de lenguaje como GPT-4 Turbo pueden desacreditar eficazmente las teorías de la conspiración utilizando su gigantesca capacidad de acceder a la información. Con ese acceso tan rápido, y entrenando "contraargumentos personalizados que responden directamente a los creyentes" los han enfrentado a 2.190 de ellos.

Los participantes le contaron al debunkbot sus creencias conspirativas y el robot les dejó que le contaran "la evidencia que sentían que las apoyaba". Cuando terminaron de explicarse, el robot respondió refutando directamente estas afirmaciones a través de "contraargumentos adaptados, fácticos y basados en evidencia".

¿Y si el robot también se equivoca?

Al mismo tiempo, un verificador de datos profesional evaluó lo que el chatbot decía: el 99,2% fueron calificadas como "verdaderas", el 0,8% como "engañosas" y el 0 como "falsas". No encontró que el robot respondiera con sesgo político de ninguna ideología.

El equipo de Costello ha podido constatar que estos diálogos de los conspiracionistas con la IA "redujeron las creencias erróneas de los participantes en un promedio del 20%". El efecto "duró al menos 2 meses" y "se observó en varias teorías de conspiración no relacionadas". El efecto fue igual en todas las categorías demográficas. Según los autores, los hallazgos "desafían la idea de que la evidencia y los argumentos son ineficaces cuando alguien cree en una teoría de la conspiración".

Y sentencian: "Para bien o para mal, la IA está destinada a cambiar profundamente nuestra cultura" porque "aunque haya sido ampliamente criticada como un multiplicador de fuerza para la desinformación, nuestro estudio demuestra una posible aplicación positiva del poder persuasivo de la IA generativa".

Los Revolucionarios | Bouncer: la inteligencia artificial que analiza el rostro e impide el acceso de los menores a páginas pornográficas

Javier Ruiz Martínez

Redactor de temas de sociedad, ciencia e innovación...