Hoy por Hoy Madrid NorteHoy por Hoy Madrid Norte
Actualidad

Un estudio de la UC3M pide que los videos lleven una ‘marca de agua’ para saber si se han creado íntegramente con IA

Así se reconocerían las deepfakes realizadas con inteligencia artificial. Políticos o conocidos artistas que se ven en situaciones comprometidas, los principales protagonistas de estas imágenes falsas

Un estudio de la Universidad Carlos III de Madrid, UC3M, ha analizado los patrones empleados en las ‘deepfakes’, videos con recreaciones hiperrealistas falsos, generados por inteligencia artificial (IA) que se propagan cada vez más por redes sociales. Una de las cosas que han comprobado es que la mayoría de ellos tienen como protagonistas a políticos, en especial a dos de ellos como son Macron y Trump, y a artistas, todos ellos vinculados a la actualidad informativa del momento. A los políticos se les sitúa en situaciones muy comprometidas relacionadas con contenidos maliciosos, consumo de drogas, prostitución e incluso pederastia y a los artistas, en muchos casos, con pornografía, aprovechando el realismo que se consigue con la IA para crear situaciones falsas, según cuenta Raquel Ruiz Incertis, una de las investigadoras del Departamento de Comunicación de la UC3M. Ella, junto con la periodista y también investigadora Miriam Garriga, ha participado en este estudio liderado por el profesor de esta universidad Raúl Magallón.

Entre las recomendaciones del trabajo se encuentra la de tener una legislación que obligue a las plataformas, aplicaciones y programas (como Midjourney o Dall-e) a establecer una ‘marca de agua’ para que el usuario identifique, “de un simple vistazo”, que esa imagen o video ha sido modificado o creado íntegramente por IA.

El uso de imágenes, videos o audios manipulados con IA se ha convertido en un tema de gran actualidad, sobre todo porque este tipo de noticias difundidas en situaciones preelectorales o en tiempos de conflictos como los de Ucrania o Gaza, pueden ser muy dañinas. Es lo que se conoce como la guerra híbrida, la que se libra en el plano físico, pero también en el digital. No obstante, es cierto que algunas de estas imágenes manipuladas también afectan a personas anónimas a las que se les daña su reputación en el ámbito profesional y personal, situaciones que luego son muy difíciles de desmentir o que el desmentido llegue a tantas personas como lo ha hecho el bulo.

El estudio, publicado en la revista ‘OberCom’ busca determinar una serie de patrones y características comunes en estos ‘deepfakes’ virales para dar claves que nos permitan identificarlas, así como propuestas a los poderes públicos para avanzar en la alfabetización mediática de la ciudadanía, según indica Ruiz. Además, de afectar a los políticos, es frecuente encontrar ‘deepfakes’ de carácter pornográfico que perjudica la integridad de las mujeres y que tienen como protagonistas a cantantes o actrices famosas. Son compartidos desde cuentas no oficiales y se difundes rápidamente por mensajería instantánea, según los investigadores.

¿Cómo reconocer las ‘deepfakes’?

El estudio sugiere la necesidad de una mayor alfabetización mediática y propone estrategias educativas para “mejorar la capacidad pública de discernir entre contenido real y manipulado”. Una de las recomendaciones apela a la legislación para que plataformas o Apps creen ‘una marca de agua’ en sus videos o imágenes como indicativo de que ese producto audiovisual h sido modificado o creado íntegramente por IA.

Ruiz recuerda que muchos de estos contenidos se pueden identificar haciendo una búsqueda inversa en cualquier buscador. Además, existen herramientas para que la persona compruebe la veracidad del contenido antes de difundirlo y estas pasan, en primer lugar, por saber cómo distinguir un video falso. Estas son algunas de las recomendaciones:

- Fijarse en la nitidez de los bordes de los elementos que aparecen en el video.

- Prestar atención a la definición del fondo de la imagen, esto también puede ser un indicador de estar ante una noticia manipulada.

- Observar si los movimientos de las personas que aparecen en el video están ralentizados

- Ver si hay desproporción corporal o juego extraño de luces y sombras en las imágenes.

.

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00