Hora 14 Fin de SemanaHora 14 Fin de Semana
Actualidad
ENTREVISTA | CHRISTIAAN VAN VEEN, ASESOR SOBRE TECNOLOGÍA Y DERECHOS HUMANOS EN LA ONU

"Hay tecnología diseñada para vigilar y castigar a los más pobres"

Un informe de la ONU alerta de la forma en la que los gobiernos están llevando a cabo la digitalización de los sistemas de protección y asistencia social. "Si seguimos implantando la tecnología así las consecuencias para los derechos humanos pueden ser catastróficas"

Asegura que las grandes tecnológicas campan a sus anchas en zonas en las que los derechos humanos están completamente ausentes

Christiaan Van Veen es el director del proyecto sobre estados de bienestar digitales y derechos humanos de la Universidad de Nueva York (NYU) y asesor en tecnología y derechos humanos de Philip Alston, el relator especial de la ONU para la extrema pobreza y los derechos humanos

Un informe de la ONU alerta de las implicaciones que tiene para los derechos humanos la implementación de la tecnología en los sistemas de bienestar. / Getty Images

Madrid

En mayo, Motka, un hombre de 50 años de un barrio marginal de India murió de hambre. Después descubrieron que no recibía ayudas porque su tarjeta de racionamiento no estaba bien conectada con Aadhaar, el sistema de identificación digital que ha implantado India. Según Right to Food Campaign, una organización que lucha por el derecho a la alimentación en ese país, en los últimos tres años 25 personas han muerto de hambre por estar excluidos de ese sistema.

Más información

Un informe de la ONU alerta esta semana sobre las implicaciones que tiene para los derechos humanos la implementación de la tecnología en los estados de bienestar. Aadhaar, el sistema de identificación digital en India, es un ejemplo de lo que en el informe llaman "estado de bienestar digital". "Los gobiernos se han lanzado a implantar la tecnología en las administraciones, en los sistemas de protección, pero sin tener en cuenta las consecuencias que eso puede tener para los derechos humanos, sin que haya habido siquiera un debate político en profundidad", dice Christiaan Van Veen, director de un proyecto sobre los estados de bienestar digitales y derechos humanos en la Universidad de Nueva York y colaborador de este informe del relator especial de la ONU para la extrema pobreza y los derechos humanos.

En el informe concluyen que si seguimos implantando de esta forma la tecnología, sin abrir antes un debate y sin una regulación clara "las consecuencias para los derechos humanos pueden ser catastróficas". Alertan, además, del papel de las empresas privadas y de las grandes tecnológicas que operan en "zonas en las que los derechos humanos están completamente ausentes".

La tecnología y los derechos humanos son dos cosas que no solemos asociar habitualmente... ¿Por qué es importante entender que tiene que existir una relación entre ambos?

Nosotros, en nuestro informe, nos centramos en el uso de la tecnología en un área muy particular en la que se ve de forma clara esa relación: el uso de la tecnología en el estado del bienestar, en los sistemas de protección social.

La implantación de la tecnología en el estado de bienestar es, cada vez más, una realidad y tiene un impacto en cómo las personas pueden disfrutar o no sus derechos. Ya sea el derecho a recibir la seguridad social, una ayuda, una subvención o el propio derecho a la privacidad. Así que vemos que es algo que tiene un impacto directo en los derechos humanos.

Habláis de "un estado de bienestar digital" ¿En qué se traduce eso en la sociedad? 

Utilizamos ese término para describir el proceso en el que los gobiernos utilizan, cada vez más, la tecnología y los datos para transformar la manera en la que funciona el estado de bienestar.

Hay muchos ejemplos, pero uno muy claro es cómo los gobiernos están empezando a implementar una cosa que se llama "sistemas de identidad biométrica". Son sistemas que utilizan huellas dactilares, lectores de retina, a veces ADN... Y todo eso lo ponen en una tarjeta biométrica que contiene esa información y que sirve como documento de identidad. De forma que es necesario pasar por ese proceso para tener acceso a ayudas sociales, por ejemplo. Si no formas parte de ese programa, no puedes recibirlas.

En muchas ocasiones, ha pasado en India, por ejemplo, la huella dactilar falla y no funciona. El resultado es que hay gente que se queda fuera de ese programa, que se queda sin recibir las ayudas porque el proceso que han decidido implantar no funciona.

Uno de los principales problemas es que se eliminan trabajos que antes hacían personas. ¿Qué consecuencias tiene eso?

Antes solíamos tener más contacto humano, con las autoridades, con trabajadores sociales… Y ahora se está sustituyendo por una actividad puramente en línea, en internet. Cada vez menos interacción entre personas. El problema es que esos sistemas tecnológicos no están diseñados para sentir empatía o compasión, no están diseñados para escuchar los problemas de una persona y entender, de verdad, qué le está pasando. Son sistemas automatizados.

La consecuencia es que es como si las diferentes situaciones de las personas las abordará un robot, que da una respuesta determinada si se dan ciertas circunstancias. Es como una tiranía para las personas implicadas. Hay muchas formas de usar la tecnología, no es ir en contra de la tecnología en sí, pero sí de la forma en la que se diseña.

 Porque ahora se está diseñando sin pensar en los derechos humanos…

No han pensado en los derechos humanos, pero tampoco en las personas afectadas por esos sistemas. Es un debate despolitizado, puramente técnico… Y cuando se toman las decisiones las personas que necesitan esas ayudas para las que están diseñando el programa están fuera del debate. Si no se escucha su perspectiva, al principio del proceso, por supuesto que los resultados van a ser negativos, porque no tienen esos factores en consideración.

Y eso decís que puede conducirnos a una "distopía digital"...

Lo que decimos es que hay un riesgo muy grande de que terminemos tropezando, como si fuéramos zombis, en una distopía digital. Muchos de estos desarrollos se han implementado sin haber pasado antes por un proceso de consulta pública, sin que haya habido un debate en profundidad en la sociedad, ni entre los legisladores, prácticamente sin debate. Se están implementando fuera del radar y tiene efectos que pueden ser muy dolorosos y negativos para las personas, sobre todo para las más pobres.

No es necesario que lleguemos a esa distopía, pero si seguimos abordándolo de esta forma, sin apenas hablar de ello, sin apenas pensar en ello, sin tener un debate público... Es probable que sí.

La gente, los medios, los legisladores... Tienen que ser conscientes de lo que está pasando, porque las consecuencias que esto tiene para los derechos humanos son catastróficas.

¿Cómo podemos evitar llegar a ese punto?

Pues aún no es demasiado tarde. Creo que hay que empezar por reconocer que hay un problema, tener en cuenta que esos desarrollos están pasando... Ya sea en España, en Reino Unido, en los Países Bajos... o en cualquier país. El segundo paso es mirar cómo podemos hacer las cosas de una manera diferente. Creo que tenemos una tendencia a creer que la tecnología es como es y no la podemos cambiar, pero la realidad es que la tecnología ha sido diseñada por personas y también la pueden cambiar las personas.

La tecnología está inyectada de ideas y valores políticos y nosotros podemos hacer frente a esas ideas y hacerlo diferente. Así que el primer paso es ser conscientes, el segundo es mejorar los resultados haciendo las cosas de otra manera y lo más importante: que cuando los gobiernos o las empresas diseñen estos sistemas tengan en cuenta las consecuencias actuales que tienen para las personas, que se aseguren de que no va a tener efectos negativos.

En el informe habláis, de hecho, de cómo estas tecnologías están diseñadas para castigar a los más vulnerables, a los más pobres... ¿Cómo?

Castigan a los más pobres porque la implementación de esta tecnología no es neutral. Cuando abordamos el estado de bienestar digital, vemos que los avances tecnológicos se están dando en áreas específicas. Por ejemplo, se han diseñado tecnologías dirigidas a detectar engaños o trampas entre las personas que reciben ayudas o asistencia del gobierno. Es decir, han tomado la decisión de que eso en concreto es un problema mayor y deciden que los avances tecnológicos tienen que empezar por ahí. Es algo que han cuestionado muchos expertos, porque en la mayoría de los casos la gente que recibe esas ayudas no está intentando engañar ni cometer un fraude, muchas veces cometen errores a la hora de rellenar formularios o puede haber discrepancias, pero no una intencionalidad.

Están creando un sistema que está mirando constantemente a las mismas personas, esperando a que cometan un error, a que hagan algo mal y pillarlas y, a veces, quitarles las ayudas. La hipocresía más grande es que si un sistema similar se hubiera inventado para perseguir a los ricos que evaden impuestos, por ejemplo, esto no estaría pasando así. Estoy seguro de que, en ese caso, sí habría un debate. Sería un escándalo y habría, seguro, una reacción de la sociedad, pero como esto está pasando, hablando claramente, a personas que no importan al Gobierno, no hay una respuesta.

Esa actitud de castigar a los pobres existe desde siempre, pero la tecnología puede hacer que sea mucho peor y eso es de lo que queremos alertar.

¿Y qué papel tiene en esto las empresas privadas?

Es algo que todo el mundo con el que hemos hablado ha resaltado. Los gobiernos no pueden construir solos estos sistemas digitales, necesitan la ayuda del sector privado. Pero el problema es que cuando estás construyendo cómo va a operar tu estado del bienestar y utilizas empresas privadas, hay intereses que se mezclan. Esas empresas pueden tener intereses en usar determinados datos de las personas para diferentes objetivos y eso puede interferir con los objetivos públicos.

Además, si hay falta de transparencia, que suele ser el caso, el problema es aún mayor. Muchos de los contratos que se han hecho entre los gobiernos y estos actores quedan ocultos y, eso, desde un punto de vista democrático, es un problema, claro.

En el informe decís que “unos cuantos ejecutivos están reemplazando a los gobiernos y a los legisladores”, que son ellos los que “determinan la dirección hacia la que van las sociedades”, sin que exista una regulación, sin que puedan rendir cuentas… ¿Los gobiernos dejan a las grandes tecnológicas campar a sus anchas porque son demasiado poderosas?

Ese es claramente parte del problema. Las Big Tech, las grandes tecnológicas, están operando en zonas en las que los derechos humanos están completamente ausentes. En un debate más amplio, lo que vemos es que estas empresas, que operan, por ejemplo, en Silicon Valley, han conseguido, con mucho éxito, evadir cualquier tipo de regulación del gobierno.

Ahora están empezando a sacar códigos éticos, pero el problema es que se basan en conceptos como la equidad o la justicia, no tienen un significado legal específico. Y así las posibilidades de escapar y de no rendir cuentas por nada son muy altas. Es una estrategia deliberada, así que necesitamos regular esto, regular la forma en la que operan estas grandes tecnológicas. Necesitamos una ley porque así habrá un componente democrático y existirá la posibilidad de llevarlas a juicio si es necesario. Es un paso que aún no se ha dado, depende de la voluntad de los gobiernos. 

Sara Selva Ortiz

Sara Selva Ortiz

Redactora de la sección de Nacional. Antes trabajó en el equipo de Hoy por Hoy, en Economía, en Informativos...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00