Última hora

LIBERACIÓN PABLO GONZÁLEZ Liberado el periodista Pablo González en un intercambio masivo de presos entre EEUU y Rusia

Ciencia y tecnología

25 grandes científicos alertan que la IA puede provocar "la extinción de la humanidad"

Para evitarlo, los principales científicos del sector de la Inteligencia Artificial se han unido para exigir a los gobiernos medidas de control más duras

Una persona usa Chat Bot. / Laurence Dutton

Madrid

El Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos tiene un presupuesto anual de solo 10 millones de dólares. En cambio, la famosa FDA, la Administración de Alimentos y Medicamentos de EEUU, gasta cada año 6.700 millones.

Más información

Con ejemplos como éste, los 25 mayores científicos del mundo en el sector de la Inteligencia Artificial se han unido para exigir a los gobiernos que adopten medidas de control más duras para poder reducir los peligros de esta nueva tecnología.

Porque, según el documento de alerta que han firmado y que publica Science, el avance sin control de los sistemas informáticos autónomos puede provocar "pérdida de vidas" e, incluso, en el futuro, la "extinción de la humanidad".

Cita ineludible

Este martes comienza en Seúl la segunda Cumbre de Seguridad de la IA y, según este destacado grupo de expertos internacionales, "en realidad no se está haciendo lo suficiente para protegernos de los riesgos", como se explica en el documento de consenso que publica hoy la revista Science.

Entre los firmantes de este documento de alerta, destacan varios premios nobel y el informático más citado en los estudios científicos dedicados a este campo.

"Ahora es el momento de pasar de propuestas vagas a compromisos concretos", advierte el coordinador de esta iniciativa, el profesor Philip Torr, del departamento de Ciencias de la Ingeniería de la Universidad de Oxford.

Hora de actuar

Este grupo de grandes expertos aseguran que en esta década actual ya se pueden crear "sistemas de IA altamente poderosos, porque superan las capacidades humanas en muchos dominios críticos".

Además, hoy apenas se investiga sobre la seguridad de la IA, ya que solo el 2% de los estudios publicados proponen mecanismos de control.

Por otra parte, la comunidad internacional todavía no dispone de médicas ni tampoco instituciones dedicadas a prevenir el uso indebido y las imprudencias de estos sistemas informáticos autónomos, que son capaces de tomar acciones y perseguir objetivos de forma independiente.

Alerta científica

Ante estas graves deficiencias, este grupo internacional de pioneros de la IA ha hecho un llamado urgente a la acción.

Los firmantes incluyen a Geoffrey Hinton, Andrew Yao, Dawn Song, el fallecido Daniel Kahneman y todos ellos trabajan en grandes potencias como EEUU, la UE o China.

Es la primera vez que un grupo tan grande e internacional de expertos acuerda las prioridades para los responsables de políticas globales con respecto a los riesgos de los sistemas avanzados de IA.

Prioridades urgentes

Estos científicos recomiendan a los gobiernos establecer instituciones expertas de acción rápida para la supervisión de la IA y proporcionarles una financiación mucho mayor.

Además, exigir a las empresas de IA que den prioridad a la seguridad y demuestren que sus sistemas no pueden causar daño.

En suma, según estos expertos, los gobiernos deben estar preparados para tomar la iniciativa en materia de regulación, como exigir controles de acceso y medidas de seguridad contra los piratas informáticos.

Impactos catastróficos

La IA ya está logrando rápidos avances en ámbitos críticos como la piratería informática, la manipulación social y la planificación estratégica, y pronto podría plantear desafíos de control sin precedentes.

El cibercrimen a gran escala, la manipulación social y otros daños podrían aumentar de forma importante y, en un conflicto, los sistemas de IA podrían desplegar de forma autónoma una variedad de armas, incluidas las biológicas.

En consecuencia, estos científicos denuncian que existe una posibilidad "muy real de que el avance desenfrenado de la IA culmine en una pérdida de vidas y de la biosfera a gran escala, y en la marginación o extinción de la humanidad".

El presidente de Microsoft España: "Necesitamos un freno de mano para la inteligencia artificial"

El presidente de Microsoft España: "Necesitamos un freno de mano para la inteligencia artificial"

10:28

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1712867261011/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

Javier Gregori

Javier Gregori

Periodista especializado en ciencia y medio ambiente. Desde 1989 trabaja en los Servicios Informativos...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00