IA: los Peligros Ocultos de los algoritmos y el desafío de la responsabilidad
Urko Peña, miembro del grupo Gureiker de la UPV, alerta de los riesgos de desinformación, discriminación y falta de control en los sistemas de IA entrenados con datos de internet

Dilemas y ética en el uso de la inteligencia artificial.
El código iframe se ha copiado en el portapapeles
Vitoria-Gasteiz
La inteligencia artificial (IA) avanza a gran velocidad, pero con ella crecen también los dilemas éticos, los riesgos sociales y los desafíos tecnológicos. Así lo ha explicado Urko Peña, miembro del grupo Gureiker de la Universidad del País Vasco (UPV), hablando sobre el impacto de esta tecnología en diferentes ámbitos de la sociedad.
“La inteligencia artificial tiene beneficios, pero también causa problemas como la desinformación o la generación de imágenes falsas que pueden provocar alertas sociales injustificadas”, ha indicado Peña. “Incluso se han dado casos que han contribuido a la caída de gobiernos”.
Uno de los principales focos de preocupación, en palabras del investigador del grupo Gureiker, es la reproducción de sesgos de género, raza o clase social por parte de los modelos de lenguaje actuales, entrenados mayoritariamente con datos extraídos de internet. “Si pides una imagen de una persona rica, suele aparecer una mujer blanca en una oficina de Nueva York. Pero si buscas pobreza, se muestran personas negras o racializadas”.
Peña recordó que estos modelos, conocidos como LLM (Large Language Models), se desarrollan en dos fases: un volcado inicial masivo de datos y un ajuste posterior con intervención humana. “El 80 % del material de entrenamiento procede de internet. Aunque luego se realiza un proceso de cribado y ajuste, por lo que si el sesgo está en el conjunto inicial, es muy difícil eliminarlo al 100 %, pese a los esfuerzos que están haciendo desde compañías como Google y OpenAI”.
Otro de los problemas que se señalan tiene que ver con la opacidad de los sistemas, conocidos como “cajas negras”, ya que muchas veces se desconoce cómo procesan la información para llegar a una respuesta. “Introducimos un dato y obtenemos una salida, pero el proceso intermedio es desconocido incluso para los expertos, y esto complica mucho la supervisión y la corrección de errores”.
La responsabilidad de la IA
Sobre la responsabilidad en el uso de la IA, el investigador del grupo Gureiker de la UPV ha remarcado que es compartida entre empresas y usuarios. “Las compañías ofrecen herramientas para evitar que los datos personales se usen en los entrenamientos, pero también es importante que las personas conozcan sus derechos y riesgos en el entorno digital”. A lo que ha sumado que “no tiene sentido desactivar la opción de compartir datos con la IA si luego publicamos todo en redes sociales sin leer los términos de uso, dándole a 'aceptar' sin mirar”.
Peña también ha abogado por una mayor y necesaria alfabetización digital para que la ciudadanía entienda cómo funciona la IA y cómo protegerse. “Tenemos derechos y obligaciones en el mundo digital igual que en el físico, y por ello la educación es clave para evitar malas prácticas y riesgos innecesarios”.
En última instancia, Urko Peña destaca que estos dilemas éticos relacionados con la inteligencia artificial "poco a poco se tienen que ir resolviendo", instando a una comprensión más profunda y una gestión responsable de esta tecnología transformadora.

Jon Dos Santos
Redactor y editor de contenidos en el magazine Hoy por hoy Vitoria




