Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

José Antonio Lozano defiende una Inteligencia Artificial justa: “El reto es que no tenga sesgos, aunque vivamos en una sociedad sesgada”

El Premio Euskadi de Investigación 2024 explica cómo trabajan para construir modelos de IA más equitativos y socialmente útiles, basados en atributos protegidos como el género o la raza

José Antonio Lozano defiende una Inteligencia Artificial justa: “El reto es que no tenga sesgos, aunque vivamos en una sociedad sesgada”

José Antonio Lozano defiende una Inteligencia Artificial justa: “El reto es que no tenga sesgos, aunque vivamos en una sociedad sesgada”

00:00:0015:55
Descargar

El código iframe se ha copiado en el portapapeles

En una sociedad cada vez más influida por la Inteligencia Artificial, ¿cómo podemos asegurarnos de que los algoritmos no discriminen? ¿Es posible construir una IA justa? Para José Antonio Lozano Alonso, catedrático de Ciencia de la Computación en la UPV/EHU y director del BCAM (Centro Vasco de Matemática Aplicada), ese es uno de los grandes desafíos del presente.

Premiado recientemente con el Premio Euskadi de Investigación 2024, Lozano ha abordado esta cuestión en el programa Hoy por Hoy Bilbao-Bizkaia. Su respuesta es clara: "El objetivo es que los sistemas de IA se comporten igual independientemente del género, la raza o la religión de la persona". Pero lograrlo no es sencillo. “La mayoría de los sistemas aprenden a partir de datos, y si esos datos están sesgados —como lo está nuestra sociedad—, el sistema reproducirá ese sesgo.”

Combatir el sesgo: una IA más equitativa

Para minimizar esas distorsiones, su equipo incluye lo que denominan “atributos protegidos” al diseñar los modelos. “Queremos que el comportamiento del sistema sea el mismo ante diferentes condiciones sociales o personales. Es difícil, pero no imposible”, ha insistido.

Puso un ejemplo concreto: el traductor automático de Google, que en sus primeras versiones convertía automáticamente el término "erizaina da" en “ella es enfermera”, obviando la posibilidad de que fuera un hombre. “Ese tipo de sesgos se heredan del lenguaje y de la sociedad. Por eso, corregirlos es esencial”, ha afirmado.

El impacto social de la IA y su despliegue imparable

Lozano también ha señalado que el despliegue de la IA ya está en marcha y que sus impactos apenas han empezado a visibilizarse. “Nos queda mucho por recorrer, pero la tecnología no se va a detener. Por eso, necesitamos modelos que no solo sean eficaces, sino que tengan un impacto positivo en la sociedad”, ha destacado.

Además, ha subrayado que su equipo trabaja activamente para entender cómo los usuarios reaccionan ante sistemas de IA, y cómo estos pueden mejorar procesos clave, desde decisiones médicas hasta políticas públicas.

IA en medicina, genética y sostenibilidad

Aunque el foco ético ha ocupado buena parte de la conversación, Lozano también ha repasado otras líneas de investigación que lidera su equipo, como los modelos de predicción en cáncer de mama, en colaboración con el Hospital de Cruces, o su estudio del coste económico real de los tratamientos sanitarios. Asimismo, ha recordado su contribución al modelo que ayudó a la Comisión Europea a reabrir la pesquería de anchoa en el Golfo de Bizkaia.

Piensa críticamente, haz click sabiamente

  • Escuchar

    01:31:08

  • Escuchar

    01:34:15

  • Escuchar

    05:39

  • Escuchar

    55:00

  • Escuchar

    09:45

  • Escuchar

    08:50

  • Escuchar

    07:53

  • Escuchar

    09:55

  • Escuchar

    11:53

  • Escuchar

    09:09

  • Escuchar

    07:28

  • Escuchar

    09:01

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir