Ciencia y tecnología
Youtube

El algoritmo de YouTube sugirió vídeos de menores a potenciales pedófilos

Un equipo de investigadores de Harvard destapa una vulnerabilidad en el sistema de recomendaciones de la plataforma

El algoritmo de YouTube registra problemas. / Getty Images

Madrid

Desde hace ya varios años, una red neuronal artificial se encarga del sistema de recomendaciones de vídeos en YouTube. Una inteligencia artificial, que destaca por sus numerosos algoritmos, que aprende constantemente de los usuarios de la plataforma para poder sugerirles aquellos vídeos que pudieran ser de su interés.

Más información

Todo ello para mantener al usuario el máximo tiempo posible en la página. Según ha dado a conocer un grupo de investigadores a The New York Times, estas recomendaciones impulsan el 70% de las reproducciones. Algo que es posible gracias al conocido como efecto Madriguera, mediante el que el algoritmo dirige al espectador a vídeos o temas cada vez más extremos.

El vídeo de las 400.000 reproducciones

Una práctica que ha puesto al algoritmo de YouTube en entredicho durante estos últimos días. Todo por una investigación llevada a cabo por un equipo de la Universidad de Harvard, mediante la que aseguran que un vídeo en el que aparecían dos niñas brasileñas de 10 años en bikini bañándose en una piscina llegó a usuarios que habían visto vídeos de temática sexual relacionados con menores con anterioridad.

Apenas unos días después de subir el vídeo a YouTube, Christiane descubrió (gracias a su hija) que el vídeo había superado las 400.000 reproducciones: "Vi el video nuevamente y me asusté por el número de vistas". Algo que fue posible gracias al sistema automatizado de recomendaciones de YouTube, tal y como explica el grupo de investigadores, que había comenzado a mostrar el vídeo a usuarios que vieron otros vídeos de niños parcialmente vestidos.

YouTube anuncia cambios

Desde hace ya varios meses, YouTube trabaja en distintas herramientas para hacer frente a los depredadores sexuales. Todo ello después de que medios como Wired dieran a conocer que algunos pedófilos estaban utilizando la sección de comentarios de los vídeos de YouTube para guiar a otros pedófilos. Sin embargo, todavía no ha encontrado la solución para que el algoritmo no recomiende este tipo de vídeos.

Según explican los investigadores, tanto este, como otros vídeos caseros, terminaron en un repositorio que fue sugerido a una gran audiencia de personas que anteriormente habían visto vídeos de contenido sexual con el objetivo de mantenerles el mayor tiempo posible en la plataforma. A pesar de que son conscientes de que YouTube no actuó de forma premeditada, los investigadores reconocen que el sistema hizo recomendaciones "inquietantes".

A raíz de esta investigación, YouTube cambió de inmediato el sistema de recomendaciones, ya que dejó de vincular algunos de los vídeos señalados. En declaraciones a The New York Times, la plataforma aseguró que este fallo fue resultado de ajustes rutinarios de sus algoritmos y no de un cambio deliberado de política. Sin embargo, todavía tienen un largo camino por recorrer.

David Justo

David Justo

(Astrabudua, 1991) Periodista especializado en tecnología y buscador de historias virales e inverosímiles...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00