Un nuevo sistema creado por la UGR verifica si un audio es real o es creado por IA
La herramienta es fruto de un trabajo de investigación desarrollado en el marco de la Cátedra de la Universidad de Granada RTVE-UGR
Granada
Un sistema innovador diseñado por investigadores de la Universidad de Granada para combatir la desinformación permite averiguar si una grabación de voz es real o se ha generado mediante Inteligencia Artificial, con la particularidad de que integra modelos específicos para voces de personalidades que son objetivo frecuente de noticias falsas.
En concreto, la herramienta, fruto de un trabajo de investigación desarrollado en el marco de la Cátedra de la Universidad de Granada RTVE-UGR, está especialmente capacitada para validar las voces del Rey Felipe VI, el presidente del Gobierno, Pedro Sánchez, y la vicepresidenta del Gobierno y ministra de Trabajo y Economía Social, Yolanda Díaz.
Su diseño por los investigadores Zoraida Callejas, David Griol y Daniel Calderón, expertos en sistemas conversacionales y tecnologías del habla y del procesamiento del lenguaje, ha partido de la proliferación, "especialmente tras un año electoral intenso", de falsos audios en el ámbito periodístico, una práctica, la de las 'fake news' (noticias falsas), que hasta ahora había estado más circunscrita a los vídeos y las fotografías, según sus autores.
Según la investigadora Zoraida Callejas, la obtención de voces sintéticas derivada de los avances en el uso de redes neuronales profundas para la síntesis de audio está permitiendo dotar de voces más inteligibles a los sistemas automáticos (lectores de texto, asistentes virtuales o robots), y hacerlas más expresivas y diversas.
Pero la síntesis del habla también se puede utilizar para crear o manipular grabaciones de audios con fines maliciosos, como la generación de noticias falsas o la suplantación de identidad en estafas telefónicas.
Estafas telefónicas
Para este último caso, el de las estafas telefónicas, también podría servir el nuevo sistema, subiendo a la plataforma creada el audio en cuestión para intentar determinar si es una voz real, pero la investigadora admite que este es un problema de más difícil resolución, dado que en ocasiones esas llamadas falsas de voz instan al interlocutor a que decida en el momento.
"Juegan con el factor tiempo: te llaman y quieres que decidas en el momento, y a veces (la llamada) te pilla en la calle con ruido ambiente, lo que hace que no te percates de si la voz es sintética o no parece muy natural", ha alegado.
La diferencia de esta nueva herramienta con respecto a otras de verificación de audios es que no solo integra modelos generales que permiten discernir, con una alta probabilidad, si cualquier audio subido a la plataforma es real o no, sino también modelos específicos ceñidos de momento a las tres personalidades del ámbito político citados anteriormente.
Durante la presentación llevada a cabo este lunes, un robot ha emitido, a modo de ejemplo, voces clonadas y reales de Felipe VI, Pedro Sánchez y Yolanda Díaz para ilustrar las dificultades de identificar un audio original de otro creado con la Inteligencia Artificial.
El equipo de investigación, que lleva más de veinte años trabajando en dotar a las máquinas de la capacidad de comunicarse sosteniendo conversaciones orales con las personas, pretende ir más allá de la verificación y desarrollar herramientas para los periodistas basadas en Inteligencia Artificial conversacional que proporcionen interactividad, accesibilidad y personalización de contenidos informativos.
En concreto, uno de los próximos retos es hacer los contenidos informativos interactivos, de modo que el lector pueda interactuar con un texto y obtener la información que desee sobre la noticia en cuestión.
Para el rector de la Universidad de Granada, Pedro Mercado, estos resultados muestran los "grandes desafíos" que la Inteligencia Artificial es capaz de situar en todos los ámbitos.