¿Cómo puede una imagen falsa generar un daño real?
Manuel Jabois reflexiona sobre el uso de la IA en casos de pornografía infantil

La Contra | ¿Cómo puede una imagen falsa generar un daño real?
El código iframe se ha copiado en el portapapeles
Madrid
Hace unos meses la Europol detenía a 25 personas por traficar con pornografía infantil con imágenes generadas por IA: los niños no existían, pero la cosificación y sexualización de la infancia sí. Había crimen pero no víctimas. Ahora no existe el cuerpo pero se le pone una cara. Y esta operación tiene una carga moral insólita. Porque no se viola una intimidad concreta, sino la propia idea de identidad. Es decir: la inteligencia artificial no desnuda a la joven, sino que construye un cuerpo que el mundo cree suyo, y borra la frontera entre ficción y realidad. Así que la víctima ya no tiene manera de separarse del engaño. Y el consentimiento, esto es importante, deja de ser una cuestión de acceso al cuerpo y pasa a ser una cuestión de control de la representación. Y ese cambio redefine lo que entendemos por agresión sexual a través de la tecnología. No hay contacto físico pero sí posesión simbólica del cuerpo. ¿Cómo puede una imagen falsa generar un daño real? Lo genera y es de sobra conocido. Además de que la viralidad de la imagen sigue siendo mayor que la de la palabra.

Manuel Jabois
Es de Sanxenxo (Pontevedra) y aprendió el oficio de escribir en el periodismo local gracias a Diario...




