Si amanece nos vamosSi amanece nos vamos
Sociedad | Actualidad

La inteligencia artificial: su aplicación en la justicia

Félix Martín, fiscal de 'Si Amanece Nos Vamos', explica por qué las nuevas tecnologías pueden producir decisiones injustas

La inteligencia artificial: su aplicación en la justicia

La inteligencia artificial: su aplicación en la justicia

25:16

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1718251720018/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

La inteligencia artificial está cada vez más presente en diversos ámbitos, incluyendo la justicia. En algunos países, como China, la inteligencia artificial ya elabora escritos de acusación para delitos menores. Si bien esta tecnología presenta varias ventajas, también tiene sus inconvenientes. En Estados Unidos, el uso de la IA en la justicia ha generado debates significativos. Un ejemplo es el sistema "Compás", utilizado por la Administración Penitenciaria para evaluar la probabilidad de reincidencia de un preso y decidir sobre la concesión de libertad condicional.

¿Qué es el sistema Compás?

El sistema Compás es una herramienta de aprendizaje automático que analiza respuestas a 137 preguntas sobre antecedentes penales, historia familiar, comportamiento y estado emocional. Basado en estas respuestas, el sistema calcula un riesgo de reincidencia en una escala de 0 a 10. Un puntaje superior a 7 indica un alto riesgo de reincidencia, lo que generalmente lleva a negar la libertad condicional.

Dos estudios, uno en 2016 y otro en 2021, evaluaron la precisión del sistema. Aunque los errores fueron similares a los del sistema humano anterior, se identificó un sesgo significativo: la población negra tenía casi el doble de probabilidades de ser clasificada erróneamente como reincidente en comparación con la población blanca.

Las posibles causas del sesgo pueden ser:

  1. Datos inadecuados. Incorporar datos que no son indicativos de la propensión a delinquir puede llevar a conclusiones erróneas. Por ejemplo, asociar un menor nivel educativo con una mayor probabilidad de delinquir.
  2. Valoración inadecuada de datos adecuados. Datos como el historial de detenciones pueden ser útiles, pero si se les da demasiado peso, pueden marginar aún más a las personas de entornos desfavorecidos.
  3. Manipulación intencionada. Si quienes desarrollan o controlan el sistema tienen prejuicios, pueden introducir y valorar datos de manera que perpetúen esos prejuicios.

Usos de inteligencia artificial en la justicia

  • Evitar prejuicios. La inteligencia artificial debe utilizarse para mejorar procesos, no para perpetuar prejuicios. Por ejemplo, puede ayudar a identificar sospechosos de delitos graves o detectar actividades terroristas.
  • Decisiones políticas, no técnicas. El despliegue de la inteligencia artificial en el ámbito judicial debe ser una decisión política, con mecanismos transparentes y control público para garantizar la justicia y equidad.
  • Respeto a derechos y libertades. Los sistemas de inteligencia artificial deben diseñarse para proteger y beneficiar a personas vulnerables y marginadas.
  • Reacción post-delito. El derecho penal moderno reacciona ante delitos cometidos, no predice quién podría delinquir. La inteligencia artificial no debe usarse para estigmatizar grupos específicos.
  • Debe ser guía, no sustituto. Debe servir como herramienta de apoyo para jueces y fiscales, pero no tomar decisiones. Los juicios requieren una comprensión profunda de la conducta humana, que incluye intuición, ética e inteligencia emocional, cualidades exclusivamente humanas.

La conclusión que saca el fiscal, Félix Martín, es que la inteligencia artificial puede ser una herramienta poderosa en la justicia, pero su uso debe ser cuidadosamente regulado y complementado por el juicio humano para evitar injusticias y prejuicios.

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00