Inculcar valores morales y éticos a los sistemas de IA, el gran desafío
Muchos son los retos que tenemos que afrontar con el uso de la IA, tan útil en muchos casos, pero todavía con lagunas por resolver como los sesgos de discriminación, dilemas éticos o sus desigualdades económicas
En la Ciberguarida (17-12-2024): Inculcar valores morales y éticos a los sistemas de IA, el gran desafío.
15:11
Compartir
El código iframe se ha copiado en el portapapeles
<iframe src="https://cadenaser.com/embed/audio/460/1734430023161/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>
Fuenlabrada
Los sistemas de Inteligencia Artificial (IA) crecen a un ritmo sin precedentes a nivel mundial. Y con todos los beneficios que aporta a la sociedad, también conlleva muchos retos para regular sus riesgos y evitar efectos indeseados. No sólo hablamos de ciberseguridad, para la que la IA, usada con fines delictivos, incrementa las posibilidades de engaño, o de las campañas de desinformación con las conocidas como ‘deepfakes’ que hacen mucho más plausible la intoxicación informativa, sino también de retos que pasan por la privacidad, la ética, su potencial para contribuir a la desigualdad económica o la dependencia que puede generar.
José Domínguez Leandro, socio del despacho de abogados Martínez-Echevarría, y especializado en el ámbito de la ciberseguridad, reconoce que uno de los principales desafíos de la IA para el ser humano es que sea capaz de inculcar valores morales y éticos a los sistemas de IA, sobre todo en “contexto de toma de decisiones”. Por eso, aboga por que los investigadores y desarrolladores den prioridad a las implicaciones éticas de las tecnologías de IA, evitando “impactos sociales negativos”.
Igualmente, según explica José Antonio Rubio, doctor Ingeniero en Ciberseguridad por la UJC, a colación de la ética, otro asunto que preocupa mucho es la privacidad, ya que estos sistemas acumulan gran cantidad de datos personales y preocupa la ciberseguridad de esta tecnología para evitar filtraciones. Nuestros datos circulan cada vez más por los diferentes sistemas tecnológicos y todavía, indica, hay mucho que hacer para “ponerlo difícil a los delincuentes”.
Ciberseguridad y manipulación
Con tecnologías cada vez más sofisticadas, que como en el caso de la IA reproduce tan fielmente la realidad, en muchos casos, los riesgos de ciberseguridad aumentan para lo que es un uso indebido. De hecho, indica este experto, ya estamos viendo cómo se usa para realizar ciberataques más avanzados, para eludir las medidas de seguridad en los equipos o explotar mejor las vulnerabilidades de los sistemas.
Éste es por tanto, otro reto para buscar elementos que nos permitan detectar los engaños, algunos de ellos dirigidos a propiciar desinformación para manipular a la opinión pública. Casos de este tipo se han dado incluso durante campañas electorales donde agentes externos se han implicado con este tipo de fakenews para condicionar el voto y los resultados.
Prejuicios y discriminación
Domínguez alerta también de cómo la IA puede perpetuar o amplificar los prejuicios sociales debido a los “datos de entrenamiento sesgados o al diseño algorítmico”. Su propuesta pasa por “invertir en el desarrollo de algoritmos imparciales y conjuntos de datos de entrenamiento diversos”. Pero, entre los riesgos que hay que controlar se encuentra también los cambios sociales que pueden generar, como contribuir a la desigualdad económica al beneficiar “desproporcionalmente a las personas o empresas ricas, aumentando la brecha salarial” o una pérdida de puestos de trabajo, con la automatización que impulsa. Sobre esto último, recuerda que no es un riesgo tan claro, ya que “hay pruebas de que la IA y otras tecnologías emergentes, crearán más puestos de trabajo de los que eliminan”.
Sin embargo, si es importante controlar la dependencia excesiva que podemos tener de esta tecnología, porque esto puede llevar a perder la creatividad o el pensamiento crítico.