Ciencia y tecnología | Actualidad

El G7 acuerda un código de conducta para los desarrolladores de inteligencia artificial: estas son las claves del Proceso de Hiroshima

Esta medida pretende que las empresas desarrollen sistemas de IA "seguros y fiables"

Una mano robótica tratando de descargar Chat GPT. / NurPhoto

El G7 ha aprobado este lunes la creación de un código de conducta para los desarrolladores de inteligencia artificial. Así lo recoge un comunicado conjunto, en el que los líderes de los siete países firmantes han señalado la necesidad de gestionar la evolución de la IA, así como de proteger a las personas, a la sociedad y a sus "principios compartidos" tras el desarrollo de la misma. Desde el estado de derecho hasta los valores democráticos, siempre manteniendo a la humanidad en el centro. Por esa misma razón, el G7 considera que es fundamental desarrollar un código de conducta inclusiva que ha sido bautizado como Proceso de Hiroshima.

Más información

Una serie de medidas que tienen como objetivo que las distintas empresas que vayan a trabajar con este tipo de tecnologías desarrollen sistemas "seguros y fiables": "Hacemos un llamado a las organizaciones que desarrollan sistemas avanzados de IA para que se comprometan con la aplicación del Código Internacional de Conducta". De hecho, el comunicado insta a los ministros de los distintos países a que aceleren el proceso hacia el desarrollo del Marco de Política Integral del Proceso de IA de Hiroshima: "Pedimos a los ministros pertinentes que desarrollen un plan de trabajo antes de fin de año para seguir avanzando en el Proceso de Hiroshima".

Las primeras medidas del Proceso de Hiroshima

Bajo su punto de vista, el desarrollo de este tipo de códigos de conducta ayudarán a desarrollar "un entorno abierto y propicio" en el que se "diseñen, desarrollen, implementen y utilicen sistemas de IA seguros y confiables para maximizar los beneficios de la tecnología". Pero no solo eso. Esta nueva normativa tiene como objetivo mitigar los riesgos de la inteligencia artificial y cerrar las brechas digitales respecto a economías "en desarrollo y emergentes". Por lo tanto, este nuevo código de conducta aspira a regular el desarrollo de la inteligencia artificial para evitar que las empresas puedan hacer usos nocivos de la misma.

Entre las medidas recomendadas, el comunicado propone que el sector cuente con supervisores independientes en todas las fases del desarrollo de cada inteligencia artificial, así como en su salida al mercado. Por otro lado, insta a que los creadores de cada una de estas aplicaciones detecten posibles riesgos de uso indebido y que corrijan dichas vulnerabilidades para evitar cualquier tipo de contratiempo. De cara a una mayor transparencia, también se pide a los desarrolladores informar acerca de las "capacidades y limitaciones" de cada herramienta y los "dominios de uso apropiado e inapropiado" de sus sistemas. Por último, el acuerdo también recoge la creación de "mecanismos de autentificación" que permitan a los usuarios identificar los textos, imágenes o vídeos generados por inteligencias artificiales.

Joe Biden y el desarrollo de la inteligencia artificial en EEUU

Por otro lado, el presidente de Estados Unidos Joe Biden ha firmado este lunes una orden ejecutiva que tiene como objetivo regular el desarrollo de la inteligencia artificial generativa en el país. En este documento, compuesto de un total de nueve puntos, Biden se compromete a gestionar los riesgos de la inteligencia artificial con el objetivo de acabar con todos ellos en el menor tiempo posible. Para ello exigirá que los desarrolladores de sistemas compartan los resultados de sus pruebas de seguridad y otra información crítica sobre las plataformas.

El objetivo de Joe Biden pasa por proteger la privacidad de los estadounidenses, así como promover la equidad y los derechos civiles del país. Para ello se compromete a desarrollar estándares y herramientas que permitan garantizar que los sistemas de IA sean seguros y confiables, así como a establecer un programa de ciberseguridad avanzado para encontrar y corregir vulnerabilidades en software crítico. Una serie de movimientos con los que Estados Unidos pretende acotar el desarrollo de la IA y que este se lleve a cabo de una forma "segura y fiable".

David Justo

David Justo

(Astrabudua, 1991) Periodista especializado en tecnología y buscador de historias virales e inverosímiles...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00