Algoritmos: así se retroalimentan y magnifican su sesgo
Los algoritmos que aprenden de nuestras búsquedas e interacciones pueden discriminar a determinados colectivos sociales
Algoritmos al poder
Buena parte de la tecnología y la gestión de los datos que generamos con su uso se basa en modelos predictivos que se utilizan para la toma de decisiones. Son los llamados algoritmos: fórmulas matemáticas empleadas para detectar mensajes de odio en las redes o para distribuir la presencia policial en una ciudad, entre otras aplicaciones.
La Agencia de Derechos Fundamentales de la Unión Europea reclama ahora que se regule el uso de esos algoritmos porque amenazan con perjudicar nuestros derechos fundamentales.
La Inteligencia Artificial no es una tecnología ciega ni inocente, está diseñada, programada, ejecutada y utilizada por personas que tienen sesgos previos e intereses y toman decisiones. La Agencia de la UE ha estudiado en un experimento los algoritmos predictivos que ya utilizan las policías de muchas ciudades para adelantarse a los delitos y diseñar sus despliegues de agentes.
Tras crear dos barrios ficticios con similar tasa de delitos e introducir en uno de ellos un algoritmo de predicción con retroalimentación, es decir, con capacidad de aprender a lo largo del proceso, se observa que en ese barrio la predicción de delitos es cada vez peor. La policía, entonces, tomaría allí decisiones cada vez más extremas, basadas en una deformación de la realidad.
Demostrados estos sesgos, la Agencia de Derechos Fundamentales pide a los legisladores europeos que acepten su existencia y trabajen para corregirlos si no quieren acabar mermando los derechos básicos.
Más información
¿Qué es y cómo funciona un algoritmo?
Carmen Torrijos, responsable en inteligencia artificial de la consultora tecnológica Prodigioso Volcán, explica que un algoritmo es un conjunto de instrucciones que sirve para resolver un problema o una tarea. Hay unos muy básicos, los algoritmos de reglas a los que les decimos lo que tienen que hacer instrucción por instrucción y van ejecutando. Y otros, los algoritmos estadísticos, que son los que no hace falta que les digamos cómo hacer las cosas, porque ya lo deducen ellos solos viendo cómo las hacemos nosotros, a través de nuestros datos. Estos últimos son los que pueden presentar problemas de sesgo.
“La calidad de los datos lo es todo”, subraya la lingüista computacional, porque contienen los sesgos de quienes los han generado y recopilado.
Las aplicaciones de estos algoritmos son múltiples. Desde bancos y aseguradoras a instituciones como la Seguridad Social sonde se manejan muchos y muy complejos datos al mismo tiempo. “La cuestión es que las personas tienen que estar informadas de que se están usando estos algoritmos, y esto se viene trabajando desde hace muy poco tiempo, sin embargo, los algoritmos ya tenían más recorrido”, denuncia Torrijos.
Los usuarios de tecnología alimentamos continuamente esos algoritmos con cada una de nuestras búsquedas e interacciones. La experta explica que esto “crea un efecto bucle. Si los datos están sesgados, vuelven otra vez a la inteligencia artificial que perpetúa ese sesgo y lo magnifica”.
Aunque la Inteligencia Artificial se ha presentado como una herramienta clave en diferentes sectores, desde los matemáticos e ingeniería hasta los sanitarios y humanísticos, estos sistemas deben estar supervisados. “No solamente los datos tienen que estar supervisados, sino también el rendimiento. Cómo ese sistema va trabajando a lo largo del tiempo, porque con el tiempo se puede deteriorar”, cayendo en mayores sesgos, indica la experta.
Torrijos asegura que en los últimos dos años se ha avanzado mucho en la evaluación y auditoría periódica de los algoritmos.