José Antonio Lozano defiende una Inteligencia Artificial justa: “El reto es que no tenga sesgos, aunque vivamos en una sociedad sesgada”
El Premio Euskadi de Investigación 2024 explica cómo trabajan para construir modelos de IA más equitativos y socialmente útiles, basados en atributos protegidos como el género o la raza

José Antonio Lozano defiende una Inteligencia Artificial justa: “El reto es que no tenga sesgos, aunque vivamos en una sociedad sesgada”
El código iframe se ha copiado en el portapapeles
En una sociedad cada vez más influida por la Inteligencia Artificial, ¿cómo podemos asegurarnos de que los algoritmos no discriminen? ¿Es posible construir una IA justa? Para José Antonio Lozano Alonso, catedrático de Ciencia de la Computación en la UPV/EHU y director del BCAM (Centro Vasco de Matemática Aplicada), ese es uno de los grandes desafíos del presente.
Premiado recientemente con el Premio Euskadi de Investigación 2024, Lozano ha abordado esta cuestión en el programa Hoy por Hoy Bilbao-Bizkaia. Su respuesta es clara: "El objetivo es que los sistemas de IA se comporten igual independientemente del género, la raza o la religión de la persona". Pero lograrlo no es sencillo. “La mayoría de los sistemas aprenden a partir de datos, y si esos datos están sesgados —como lo está nuestra sociedad—, el sistema reproducirá ese sesgo.”
Combatir el sesgo: una IA más equitativa
Para minimizar esas distorsiones, su equipo incluye lo que denominan “atributos protegidos” al diseñar los modelos. “Queremos que el comportamiento del sistema sea el mismo ante diferentes condiciones sociales o personales. Es difícil, pero no imposible”, ha insistido.
Puso un ejemplo concreto: el traductor automático de Google, que en sus primeras versiones convertía automáticamente el término "erizaina da" en “ella es enfermera”, obviando la posibilidad de que fuera un hombre. “Ese tipo de sesgos se heredan del lenguaje y de la sociedad. Por eso, corregirlos es esencial”, ha afirmado.
El impacto social de la IA y su despliegue imparable
Lozano también ha señalado que el despliegue de la IA ya está en marcha y que sus impactos apenas han empezado a visibilizarse. “Nos queda mucho por recorrer, pero la tecnología no se va a detener. Por eso, necesitamos modelos que no solo sean eficaces, sino que tengan un impacto positivo en la sociedad”, ha destacado.
Además, ha subrayado que su equipo trabaja activamente para entender cómo los usuarios reaccionan ante sistemas de IA, y cómo estos pueden mejorar procesos clave, desde decisiones médicas hasta políticas públicas.
IA en medicina, genética y sostenibilidad
Aunque el foco ético ha ocupado buena parte de la conversación, Lozano también ha repasado otras líneas de investigación que lidera su equipo, como los modelos de predicción en cáncer de mama, en colaboración con el Hospital de Cruces, o su estudio del coste económico real de los tratamientos sanitarios. Asimismo, ha recordado su contribución al modelo que ayudó a la Comisión Europea a reabrir la pesquería de anchoa en el Golfo de Bizkaia.
Piensa críticamente, haz click sabiamente
Escuchar
01:31:08
Escuchar
01:34:15
Escuchar
05:39
Escuchar
55:00
Escuchar
09:45
Escuchar
08:50
Escuchar
07:53
Escuchar
09:55
Escuchar
11:53
Escuchar
09:09
Escuchar
07:28
Escuchar
09:01




