Europa debate si los países podrán usar identificación biométrica masiva en casos que atenten contra la seguridad nacional
El Parlamento Europeo defiende que solo se permita esta vigilancia para delitos graves y con permiso judicial mientras el Consejo Europeo apuesta por que los países puedan usar esta tecnología en otras situaciones que atenten contra su seguridad nacional
madrid
Europa se encuentra en plena discusión sobre la futura ley de inteligencia artificial, pionera en el mundo, y las reglas que deben cumplir las compañías que impulsan este tipo de sistemas.
Ayer se celebró la tercera ronda de los llamados trílogos, los grupos informales de trabajo formados por el Parlamento europeo, el Consejo y la Comisión, y todavía existen algunos escollos importantes relacionados con las prohibiciones y los límites que debe incluir la futura ley de inteligencia artificial.
El Parlamento Europeo aprobó el pasado mes de junio su posición sobre la ley de Inteligencia Artificial. Se han establecido diferentes niveles de riesgo, desde riesgo muy alto a riesgo nulo, y las condiciones que deben cumplir las compañías y desarrolladores que trabajan con estos sistemas para mitigar los riesgos.
La ley podría estar lista a finales de año
El eurodiputado socialista, Iban García del Barco, miembro del grupo de la Alianza Progresista de Socialistas y Demócratas de la Eurocámara, que ayer participó en el cuarto trílogo de esta ley, asegura a la Cadena SER que “ayer estuvimos discutiendo si las prohibiciones absolutas se mantienen como tales y se mantienen las excepciones actuales”. El borrador actual de la ley prohíbe “sistemas de identificación biométrica remota en que no son en tiempo real, salvo casos de persecución de delitos graves y solo bajo autorización judicial.
Preguntado por si esta excepción se podría aplicar a la vigilancia en las fronteras, García del Barco explica que es un asunto que está en discusión porque “los estados miembros creen que la seguridad nacional es una competencia exclusiva de ellos". "Los gobiernos europeos- piden que se amplíen un poco más las excepciones mientras que el Parlamento está en la posición contraria”. Este diputado admite que "podría decidirse algún tipo de excepción más, sobre todo “ex post”, es decir, si se necesita revisar imágenes sobre alguna persona en un espacio abierto, pero contando con algún tipo de permiso judicial”.
Por su parte, la eurodiputada popular Pilar del Castillo, también explica que la ley de inteligencia artificial está en plena negociación “El Parlamento europeo ha votado su posición y el Consejo ha adoptado la suya. Lo que se acuerde entre ambos será el texto definitivo”.
Prácticas prohibidas por la ley de inteligencia artificial aprobadas por el Europarlamento
- Sistemas de identificación biométrica remota en tiempo real en espacios públicos.
- Sistemas de identificación biométrica remota que no son en tiempo real, con la única excepción de la persecución de delitos graves y sólo bajo autorización judicial.
- Sistemas de categorización biométrica que empleen características identificativas “sensibles” como sexo, raza, etnia, estado de ciudadanía, religión u orientación política.
- Sistemas policiales predictivos basados en perfiles, ubicación o antecedentes criminales.
- Sistemas de reconocimiento de emociones por parte de las fuerzas del orden, en la gestión de fronteras, el lugar de trabajo e instituciones educativas.
- Recopilación indiscriminada de datos biométricos extraídos de las redes sociales o imágenes de sistemas CCTV (Circuito cerrado de televisión) para crear bases de datos de reconocimiento facial que violan los derechos humanos y el derecho a la privacidad
La normativa establece cuatro niveles de riesgo de estos sistemas:
Los sistemas que presenten un riesgo inaceptable quedarán prohibidos; los de “alto riesgo” fuertemente regulados; los clasificados como de “riesgo limitado” deberán adoptar medidas de transparencia y los de “riesgo bajo o mínimo” no tendrán obligaciones en el marco de esta ley.
Los Miembros del Parlamento Europeo han ampliado la clasificación de áreas de alto riesgo para incluir daños a la salud, la seguridad o los derechos fundamentales.
Nieves Goicoechea
La mayor parte de mi carrera la he desarrollado...