La UIB advierte de que la inteligencia artificial puede reproducir sesgos de género si no se revisa
La investigadora Silvia Ortiz recuerda que la IA aprende de datos creados por personas y la universidad organiza el 12 de marzo una jornada para analizar sus riesgos y oportunidades desde la perspectiva de género

NicoElNino

Palma
La inteligencia artificial tampoco es neutral. Aprende de los datos del pasado y, si no se revisa, puede reproducir los mismos sesgos de género que existen en la sociedad. Es una de las advertencias que lanzan desde la Universidad de las Islas con motivo del 8M.
La investigadora de la UIB, Silvia Ortiz, explica que muchas veces pensamos que la inteligencia artificial es objetiva porque detrás hay algoritmos y máquinas, pero recuerda que en realidad son personas quienes diseñan estas tecnologías y quienes aportan los datos con los que aprenden.
Ortiz pone ejemplos muy presentes en la vida cotidiana. Muchos asistentes virtuales, como Alexa, tienen voz femenina y están pensados para ayudar o asistir, lo que refuerza estereotipos tradicionales. Algo similar ocurre con los traductores automáticos, que tienden a asociar profesiones como ingeniero con hombres y enfermera con mujeres, o con los generadores de imágenes, que suelen mostrar a mujeres cuidando bebés y a hombres arreglando coches.
Por eso insiste en que uno de los retos es incorporar más diversidad en los equipos que diseñan estas tecnologías.
Precisamente para reflexionar sobre estos retos, la UIB organiza el próximo 12 de marzo la jornada “IA con perspectiva de género. Sesgos y oportunidades”, que reunirá a investigadoras, profesionales del ámbito tecnológico y alumnado para debatir sobre el impacto social, ético y laboral de estas herramientas.




