Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

¿Cómo puede una imagen falsa generar un daño real?

Manuel Jabois reflexiona sobre el uso de la IA en casos de pornografía infantil

La Contra | ¿Cómo puede una imagen falsa generar un daño real?

La Contra | ¿Cómo puede una imagen falsa generar un daño real?

00:00:0002:31
Descargar

El código iframe se ha copiado en el portapapeles

Madrid

Hace unos meses la Europol detenía a 25 personas por traficar con pornografía infantil con imágenes generadas por IA: los niños no existían, pero la cosificación y sexualización de la infancia sí. Había crimen pero no víctimas. Ahora no existe el cuerpo pero se le pone una cara. Y esta operación tiene una carga moral insólita. Porque no se viola una intimidad concreta, sino la propia idea de identidad. Es decir: la inteligencia artificial no desnuda a la joven, sino que construye un cuerpo que el mundo cree suyo, y borra la frontera entre ficción y realidad. Así que la víctima ya no tiene manera de separarse del engaño. Y el consentimiento, esto es importante, deja de ser una cuestión de acceso al cuerpo y pasa a ser una cuestión de control de la representación. Y ese cambio redefine lo que entendemos por agresión sexual a través de la tecnología. No hay contacto físico pero sí posesión simbólica del cuerpo. ¿Cómo puede una imagen falsa generar un daño real? Lo genera y es de sobra conocido. Además de que la viralidad de la imagen sigue siendo mayor que la de la palabra.

Manuel Jabois

Manuel Jabois

Es de Sanxenxo (Pontevedra) y aprendió el oficio de escribir en el periodismo local gracias a Diario...

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir