A Coruña, ante la "oportunidad" de ser "pionera" en el campo ético, "imprescindible" para la inteligencia artificial
Quien lo destaca es Amparo Alonso Betanzos, catedrática en el área de Ciencias da Computación e Intelixencia Artificial en la Universidade da Coruña
Coruña Científica, con Bibiana García. Hablamos con Amparo Alonso, catedrática de la UDC
09:42
Compartir
El código iframe se ha copiado en el portapapeles
<iframe src="https://cadenaser.com/embed/audio/460/1671523905037/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>
A Coruña
A Coruña, como sede de la Agencia Española de Supervisión de la Inteligencia Artificial, tiene ante sí la "oportunidad" de ser "pionera" en el campo ético, que es "imprescindible" para la inteligencia artificial.
Más información
Quien lo destaca es Amparo Alonso Betanzos, catedrática en el área de Ciencias da Computación e Intelixencia Artificial en la Universidade da Coruña (UDC).
Licenciada en Químicas y doctora en Físicas por la Universidade de Santiago de Compostela (USC), Alonso Betanzos pronuncia este lunes una conferencia en el Ateneo de Santiago sobre esta "pareja indisoluble".
"Tenemos esta oportunidad de ser pioneros en un campo ético que es imprescindible", resalta, en declaraciones a Europa Press, esta experta en la actualidad comisionada de la UDC para el desarrollo del nodo de inteligencia artificial de la Cidade das TIC en A Coruña.
La inteligencia artificial es la disciplina que intenta desarrollar procesos propios de la inteligencia humana a partir de máquinas y computadoras.
Presenta una serie de cuestiones éticas como la regulación de los datos recogidos o la privacidad del individuo, aspectos que aborda esta especialista.
Una inteligencia artificial "más humanista"
Al respecto, Amparo Alonso Betanzos destaca que va a ser precisa una visión multidisciplinar en la que entrarán en juego psicólogos, filósofos y lingüistas, entre otros, para "dar un perfil más humanista" a la inteligencia artificial.
Como ejemplos de cuestiones concretas que habrá que perfilar, apunta a influencias en el comportamiento de personas vulnerables como mayores o niños y al uso de la información e imágenes que se comparten por redes sociales.
Advierte de que "no hay una definición concreta de la privacidad" y alerta también de "sesgos" que en ocasiones perpetúan los algoritmos. "Hay que revisar las situaciones para hacer las pruebas y ver que utilizas la información y el algoritmo correcto", subraya.
Para ello, la regulación está en varios niveles: alto, medio y bajo, y "cada uno de esos niveles de riesgos va a tener una serie de restricciones".