¿Cómo puede una imagen falsa generar un daño real?
Manuel Jabois reflexiona sobre el uso de la IA en casos de pornografía infantil
La Contra | ¿Cómo puede una imagen falsa generar un daño real?
Madrid
Hace unos meses la Europol detenía a 25 personas por traficar con pornografía infantil con imágenes generadas por IA: los niños no existían, pero la cosificación y sexualización de la infancia sí. Había crimen pero no víctimas. Ahora no existe el cuerpo pero se le pone una cara. Y esta operación tiene una carga moral insólita. Porque no se viola una intimidad concreta, sino la propia idea de identidad. Es decir: la inteligencia artificial no desnuda a la joven, sino que construye un cuerpo que el mundo cree suyo, y borra la frontera entre ficción y realidad. Así que la víctima ya no tiene manera de separarse del engaño. Y el consentimiento, esto es importante, deja de ser una cuestión de acceso al cuerpo y pasa a ser una cuestión de control de la representación. Y ese cambio redefine lo que entendemos por agresión sexual a través de la tecnología. No hay contacto físico pero sí posesión simbólica del cuerpo. ¿Cómo puede una imagen falsa generar un daño real? Lo genera y es de sobra conocido. Además de que la viralidad de la imagen sigue siendo mayor que la de la palabra.
Manuel Jabois
Es de Sanxenxo (Pontevedra) y aprendió el oficio...Es de Sanxenxo (Pontevedra) y aprendió el oficio de escribir en el periodismo local gracias a Diario de Pontevedra. Ha trabajado en El Mundo y Onda Cero. Colabora a diario en la Cadena SER. Sus dos últimos libros son las novelas Malaherba (2019) y Miss Marte (2021). En EL PAÍS firma reportajes, crónicas, entrevistas y columnas.