Meta censura el contenido pro-palestino, según HRW
Tras revisar más de mil publicaciones, la ONG denuncia un patrón de eliminación de discursos de ciudadanos corrientes en apoyo de Palestina
Censura sobre Gaza
Un informe de Human Rights Watch acusa a Meta de silenciar cada vez más las voces de apoyo a Palestina en sus redes sociales Facebook e Instagram. Tras revisar 1.050 casos de censura en línea en más de 60 países, el texto “Meta’s Broken Promises: Systemic Censorship of Palestine Content on Instagram and Facebook” documenta un patrón de eliminación de discursos en apoyo de Palestina y el debate público sobre los derechos humanos palestinos a raíz de la guerra en Gaza que estalló el pasado 7 de octubre.
Según explica Deborah Brown, investigadora sobre derechos digitales de HRW, las publicaciones censuradas no eran de activistas sino de ciudadanos corrientes.
- ¿Qué conclusiones habéis sacado exactamente de vuestra investigación sobre esta censura en las redes desde los ataques de Hamás del 7 de octubre?
Human Rights Watch realizó una investigación que buscaba documentar la censura de contenidos sobre Israel o Palestina desde el 7 de octubre. Lo que hicimos fue solicitar información a las personas que nos siguen en varios de nuestros canales en redes sociales y lo que nos encontramos fue que "Meta" ha estado censurando contenidos en apoyo de Palestina o de los Derechos Humanos de los palestinos de manera sistemática a nivel mundial.
- Claro... vosotros preguntáis a vuestros seguidos sobre su experiencia y... ¿qué os contaron exactamente?
Recibimos más de mil casos de censura. En general, la mayoría de estos casos fueron ejemplos de censura en Instagram y Facebook. También detectamos casos en otras plataformas como TikTok o Twitter. Lo que averiguamos es que hay usuarios de esas redes que están sufriendo restricciones en sus cuentas.
En concreto, ven como ese tipo de contenidos estaba siendo eliminado o que no podían usar determinadas funciones en sus cuentas (como transmitir en directo, dar al botón de "me gusta" o compartir otras publicaciones afines). Incluso algunos usuarios vieron como les suspendían sus perfiles de forma temporal o permanente. Otros experimentaron un "baneo" en la sombra, lo que significa que sufren una caída significativa de la visibilidad de sus publicaciones, sus historias o sus propias cuentas. En ocasiones, esas cuentas no se pueden encontrar cuando se las busca.
- ¿Pero qué tipo de información se censura? No estamos hablando sólo de contenidos de apoyo a Hamás, por ejemplo... ¿verdad?
Exacto. En nuestra investigación hemos recopilado capturas de pantalla, enlaces y otro tipo de información para asegurarnos de que esa censura no tuviera que ver con algún tipo de violencia, incitación a la violencia o apoyo a la violencia de Hamás.
Cada caso que documentamos fue información de apoyo a la Paz o que simplemente hablaba de Hamás o de lo que está pasando. Recopilamos todo el contenido que se puede considerar expresiones protegidas por los estándares internacionales de Derechos Humanos.
Pero descubrimos que "Meta" tiene una regla que restringe el discurso sobre las llamadas organizaciones peligrosas como Hamás. Aunque se supone que debe permitir que la gente discuta de manera neutral o condene a los grupos terroristas en línea, descubrimos que la forma en que aplicaron esta censura eliminó muchas expresiones que no apoyan a Hamás, sino que simplemente hablan de ello o condenan la situación de los derechos humanos en Gaza.
- Pero en vuestra investigación también apuntáis que se censuran imágenes de la bandera palestina o críticas a Israel...
Eso es. Se me viene a la cabeza un ejemplo... Hubo alguien que puso una publicación en Instagram en la que se criticaba al gobierno israelí. Hablaba de las acciones militares en Gaza, en el pasado y en la actualidad, y decía que esas acciones simulaban un "comportamiento terrorista", algo con lo que quizás no todos están de acuerdo, pero se trataba -en gran medida- de condenar la actividad militar del gobierno israelí. Eso fue catalogado como discurso de odio.
Hemos visto otros casos en los que los usuarios criticaban a Netanyahu por su forma de gestionar el tema de los rehenes. Ese contenido también fue eliminado... se eliminó porque se mencionaba a Hamás para explicar que era ese grupo el que había secuestrado pero ese mensaje se enmarcaba dentro de un discurso político. Un discurso que puede resultar polémico, aunque realmente no sea una incitación a la violencia o un discurso de odio para ser eliminado.
- ¿Y a quién se censura? ¿Son ciudadanos y usuarios corrientes o son activistas?
Esto es un aspecto muy interesante de nuestra investigación porque ya estuvimos trabajando en un tema similar sobre censura entorno a Palestina en 2021 cuando muchos periodistas y activistas veían cómo les estaban eliminando su contenido.
Esta vez descubrimos que las personas que nos informaban eran usuarios comunes de redes sociales de más de 60 países, de todas las regiones del mundo. Y en muchos casos, no se identificaron como activistas. Y dijeron que han tenido sus cuentas en Instagram o Facebook desde hace más de diez años. Y esta fue la primera vez que experimentaron censura de cualquier tipo cuando hablaban de Palestina.
- ¿Ha ocurrido lo mismo con información relacionada con Israel?
Como te contaba, la solicitud a nuestros seguidores era neutral... en el sentido de que preguntamos sobre cualquier contenido relacionado con Israel o Palestina desde el 7 de octubre. De los 1050 casos recibidos y que incluimos en nuestro trabajo sólo hubo un caso en el que un usuario fue censura por un discurso en el que apoyaba a Israel.
Así que no podemos decir de manera concluyente que no censuran el contenido pro-israelí. No lo sabemos. Sólo sabemos lo que decía la información que nos fue proporcionada. Y nuestros hallazgos no tenían ejemplos sólidos sobre ello. Fue un solo caso.
- ¿Y cómo funciona ese mecanismo de censura? ¿Lo dirige un algoritmo o se censura en función de lo que ve Israel y no le gusta?
Pues es una combinación de ambas cosas. El factor principal es la automatización... Es la propia empresa "Meta" la que trata de encontrar ese contenido a censurar. Un porcentaje muy alto del contenido censurado se detecta por la automatización del sistema. Es decir, a través de herramientas digitales que detectan palabras clave o imágenes que pueden incumplir sus políticas de contenidos.
Lo que concluimos con nuestra investigación es que estas herramientas automatizadas que habitualmente otorgan un 80% de confianza en que algo no incumple sus normas habían rebajado ese umbral al 20% para reducir al máximo los riesgos y asegurarse que nadie publica nada que pueda incumplir esas normas. Y a consecuencia de que se rebaja ese umbral automatizado, aumenta la tasa de error y de "falsos positivos". Es decir, se utiliza un algoritmo para detectar contenido potencialmente infractor, aunque esa herramienta identifique como tal una gran cantidad de contenido no violento.
Sin embargo, también sabemos que hay referencias en Internet de muchos gobiernos que reportan contenido a "Meta" denunciando que pueden incumplir sus reglas sobre contenidos. No es que viole una ley nacional, sino que incumple las reglas que se impone la propia compañía. Y hay una unidad tecnológica israelí que ha estado especialmente activa en ello... han estado denunciando mucho contenido a "Meta" y otras plataformas. También hay este tipo de unidades en muchos gobiernos europeos que también denuncian este tipo de contenidos que debe eliminarse según las reglas de la red social, no según las leyes locales. Además, cuando lo hacen, ese contenido se elimina a nivel mundial no sólo en la propia jurisdicción del país. Pedimos a "Meta" que nos informara cuando elimina contenido por la solicitud del gobierno. Nos dijeron que iban a corregir esto hace dos años y todavía no han logrado avances.
- Habéis enviado esta investigación a "Meta"... ¿qué os han respondido?
Enviamos una carta a "Meta" con preguntas sobre nuestra investigación y nuestros hallazgos iniciales en noviembre, y nos respondieron por escrito, como se puede ver en el informe, aunque la compañía no abordaba nuestras preguntas. Nos dieron algunas explicaciones generales sobre cómo abordan la moderación de contenidos en respuesta al conflicto. Pero desde que se publicó el informe, estamos colaborando con ellos en recomendaciones específicas, tratando de obtener más información sobre cómo pueden abordar los problemas que encontramos en nuestro informe.
Debo destacar que Human Rights Watch y otras organizaciones, grupos palestinos y árabes de derechos digitales han planteado estas cuestiones a lo largo de los años. Esta no es la primera vez que les planteamos estas dudas. Son conscientes de estos problemas son recurrentes, como su política sobre organizaciones e individuos peligrosos, su uso de la automatización y su aparente deferencia a las solicitudes gubernamentales. Y es por eso que podemos llamar al informe de promesas incumplidas, porque no se trata de cuestiones nuevas. Y por lo tanto llegamos a la conclusión de que no estaban cumpliendo con sus responsabilidades en materia de derechos humanos.