Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

IA: los Peligros Ocultos de los algoritmos y el desafío de la responsabilidad

Urko Peña, miembro del grupo Gureiker de la UPV, alerta de los riesgos de desinformación, discriminación y falta de control en los sistemas de IA entrenados con datos de internet

Dilemas y ética en el uso de la inteligencia artificial.

Dilemas y ética en el uso de la inteligencia artificial.

00:00:0010:22
Descargar

El código iframe se ha copiado en el portapapeles

Vitoria-Gasteiz

La inteligencia artificial (IA) avanza a gran velocidad, pero con ella crecen también los dilemas éticos, los riesgos sociales y los desafíos tecnológicos. Así lo ha explicado Urko Peña, miembro del grupo Gureiker de la Universidad del País Vasco (UPV), hablando sobre el impacto de esta tecnología en diferentes ámbitos de la sociedad.

“La inteligencia artificial tiene beneficios, pero también causa problemas como la desinformación o la generación de imágenes falsas que pueden provocar alertas sociales injustificadas”, ha indicado Peña. “Incluso se han dado casos que han contribuido a la caída de gobiernos”.

Uno de los principales focos de preocupación, en palabras del investigador del grupo Gureiker, es la reproducción de sesgos de género, raza o clase social por parte de los modelos de lenguaje actuales, entrenados mayoritariamente con datos extraídos de internet. “Si pides una imagen de una persona rica, suele aparecer una mujer blanca en una oficina de Nueva York. Pero si buscas pobreza, se muestran personas negras o racializadas”.

Peña recordó que estos modelos, conocidos como LLM (Large Language Models), se desarrollan en dos fases: un volcado inicial masivo de datos y un ajuste posterior con intervención humana. “El 80 % del material de entrenamiento procede de internet. Aunque luego se realiza un proceso de cribado y ajuste, por lo que si el sesgo está en el conjunto inicial, es muy difícil eliminarlo al 100 %, pese a los esfuerzos que están haciendo desde compañías como Google y OpenAI”.

Otro de los problemas que se señalan tiene que ver con la opacidad de los sistemas, conocidos como “cajas negras”, ya que muchas veces se desconoce cómo procesan la información para llegar a una respuesta. “Introducimos un dato y obtenemos una salida, pero el proceso intermedio es desconocido incluso para los expertos, y esto complica mucho la supervisión y la corrección de errores”.

La responsabilidad de la IA

Sobre la responsabilidad en el uso de la IA, el investigador del grupo Gureiker de la UPV ha remarcado que es compartida entre empresas y usuarios. “Las compañías ofrecen herramientas para evitar que los datos personales se usen en los entrenamientos, pero también es importante que las personas conozcan sus derechos y riesgos en el entorno digital”. A lo que ha sumado que “no tiene sentido desactivar la opción de compartir datos con la IA si luego publicamos todo en redes sociales sin leer los términos de uso, dándole a 'aceptar' sin mirar”.

Peña también ha abogado por una mayor y necesaria alfabetización digital para que la ciudadanía entienda cómo funciona la IA y cómo protegerse. “Tenemos derechos y obligaciones en el mundo digital igual que en el físico, y por ello la educación es clave para evitar malas prácticas y riesgos innecesarios”.

En última instancia, Urko Peña destaca que estos dilemas éticos relacionados con la inteligencia artificial "poco a poco se tienen que ir resolviendo", instando a una comprensión más profunda y una gestión responsable de esta tecnología transformadora.

Jon Dos Santos

Jon Dos Santos

Redactor y editor de contenidos en el magazine Hoy por hoy Vitoria

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir