Directo

SESIÓN DE CONTROL Sánchez comparece en la última sesión de control del Congreso

Sociedad

Los sesgos de la Inteligencia Artificial: el desbloqueo facial falla más con las personas racializadas

La graduada en Administración de Empresas, Gladia Afonso, ha investigado la influencia humana en esta herramienta

¿Te lo has creido?: Los sesgos de la Inteligencia Artificial con Gladia Afonso

Eibar

La presencia de la Inteligencia Artifical en el día a día es cada vez mayor, tanto como fuente de información como complemento en otras herramientas. No obstante, tiene sesgos derivados de los datos que vuelca el ser humano.

La ermuarra Gladia Afonso realizó su trabajo de fin de grado sobre esta cuestión y asegura que no existe la neutralidad: “La neutralidad es un tema complejo porque depende de la tecnología y del contexto en el que se desarrolla y se utiliza, a día de hoy la inteligencia artificial no es completamente neutra”.

Esto se debe a que esta inteligencia artificial se alimenta de datos que vuelca el ser humano. “Si estos datos contienen sesgos sociales o culturales como la discriminación de sexo o raza, se introducen en el modelo y deja de ser neutro”, explica.

Estos sesgos se diferencian entre sesgos de datos, los producidos a través de datos estereotipados, o los sesgos emergentes que surgen como consecuencia de la interacción con las personas usuarias.

Los ejemplos

Esta cuestión impacta en decisiones cotidianas como la contratación de personal: “Un modelo de inteligencia artificial empleado para la contratación que está entrenado con datos de una empresa con prácticas laborales sexistas, podría discriminar a las mujeres”.

También influyen a la hora de desbloquear el teléfono móvil, lo que ocasiona que algunos grupos sociales tengan muchos más fallos que otros: “Por ejemplo si quienes compran Apple son en su mayoría hombres o mujer, discriminarían al contrario”. Y así ocurre, pues según cuenta los errores son mayores con mujeres racializadas que con hombres blancos.