Ciencia y tecnología | Actualidad

Un equipo de la UPV presenta un estudio sobre razonamiento ético de la IA a través de formalismos matemáticos

El trabajo desarrolla cómo la IA puede agregar diferentes teorías éticas para que su decisión final esté alineada con lo que las personas consideran un comportamiento ético

Una persona utilizando lnteligencia Artificial en su dispositivo móvil. / Krongkaew

Una persona utilizando lnteligencia Artificial en su dispositivo móvil.

València

Un equipo del grupo de investigación GTI-IA del Instituto Universitario Valenciano de Investigación en Inteligencia Artificial (VRAIN) de la Universitat Politècnica de València (UPV) ha presentado un trabajo sobre razonamiento ético de la inteligencia artificial en la conferencia anual que organiza la Asociación para el Avance de la Inteligencia Artificial (AAAI) de EE. UU, una de las citas internacionales más prestigiosas en este campo.

El artículo, titulado “La incertidumbre moral y el problema del fanatismo”, ha sido elaborado por los investigadores de VRAIN de la UPV, José Such y Natalia Criado y los colaboradores del King´s College London (Reino Unido), Jazon Szabo y Sanjay Modgil. Y desarrolla cómo a través de un formalismo matemático, se puede hacer razonar a la inteligencia artificial sobre diferentes puntos de vista y teorías éticas.

Un estudio de la UPV confirma que los pasteles "entran por los ojos" y pone en valor la importancia visual de la comida

“Le estamos diciendo a la IA que, a la hora de decidir, tenga en cuenta y agregue diversos aspectos éticos, no solo una perspectiva ética. Y de este modo, su decisión final estará más alineada con lo que un mayor número de personas considera ético, y se alejará de que ninguna de las teorías éticas domine desproporcionadamente sobre las otras, que llevaría a la IA a un comportamiento más fanático”, explica el investigador de VRAIN de la UPV, y uno de los autores de este artículo, José Such.

Algo “muy importante de cara a desarrollar sistemas de inteligencia artificial que sean capaces de alinearse con lo que las personas consideramos que es un comportamiento ético”, añade.

José Such, investigador de la UPV, presenta un estudio sobre razonamiento ético de la IA a través de formalismos matemáticos

00:22

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1709362741435/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

Sistemas inteligentes que comprendan los valores humanos

Este artículo técnico está basado en la investigación del proyecto VAE (Value-awareness engineering). Su objetivo es, precisamente, desarrollar herramientas y tecnologías para construir sistemas inteligentes que comprendan los valores humanos y garanticen que su comportamiento está alineado con esos valores.

El proyecto está financiado por el Ministerio de Ciencia, Innovación y Universidades y la UE a través de Fondos Next Generation y tiene una duración de dos años. Su investigadora principal es Natalia Criado, en el equipo formado por Vicent Botti y José Such del grupo GTI-IA de VRAIN de la UPV.

La conferencia AAAI sobre Inteligencia Artificial que se ha celebrado esta semana en Vancouver (Canadá) tiene el objetivo de fomentar el intercambio científico entre profesionales, investigadores, científicos y estudiantes de este campo y sus disciplinas y reúne los trabajos más brillantes en IA a lo largo del año.

Se trata de una de las conferencias con mayor trayectoria en IA, organizada también por una de las asociaciones con mayor historia en esta tecnología. Los artículos que se presentan en este foro son muy limitados debido a las exigencias de altos estándares científicos.

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00