El algoritmo de Instagram facilita la pedofilia: ayuda a conectar a los vendedores de contenido sexual de menores con clientes
Una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst ha despatado que Instagram facilita a los conectar a pedófilos con los vendedores de contenido sexual de menores
El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst. Instagram, red social más popular entre los adolescentes, no solo aloja estas actividades, sino que sus algoritmos las promueven.
Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.
Los investigadores descubrieron que Instagram -que tiene más de 1.300 millones de usuarios- permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticonos que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y "reuniones" con los menores.
La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como la ley de EEUU. Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados.
Más información
- El 23% de los menores es víctima de propuestas sexuales de adultos a través de Internet: "Es terrible, no esperábamos un dato tan tenebroso"
- El 'online grooming', otro peligro más para niños y adolescentes en la red: qué es, cómo detectarlo y evitarlo
- En el 72% de los casos de agresores sexuales abusadores penados había imágenes de menores no sexualizadas
"La explotación infantil es un crimen horrible", dijo la compañía, y agregó que está "investigando continuamente formas de defenderse activamente contra este comportamiento". Meta -que cuenta con más de 3.000 millones de usuarios en sus aplicaciones, que incluyen Instagram, Facebook y WhatsApp- dijo que en los últimos dos años eliminó 27 redes de pedófilos.
La plataforma, además, aseguró que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual. En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.
Por su parte, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave. "La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram", escribieron los expertos en un informe que se publica hoy.
El equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter. Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataformas, además, las eliminó mucho más rápido.