¿A quiénes silencian los algoritmos?
En sus decisiones invisibles, a quién mostrar, a quién recomendar o a quién descartar, se entrelazan las desigualdades que estructuran nuestras vidas
La mirada de Toledo: ¿A quienes silencian los algoritmos? (20/10/2025)
Toledo (Toledo)
Que vivimos rodeados de algoritmos no es ninguna novedad, más bien es una obviedad cotidiana. Los algoritmos deciden qué noticias leemos, qué música escuchamos o qué publicidad vemos. Y aunque nos dicen que son objetivos, que solo siguen datos o que no tienen sesgos, no es así, lo cierto es que los algoritmos aprenden de nosotros y, por tanto, aprenden también nuestras desigualdades.
La tecnología no es neutra, ya que refleja y amplifica las estructuras sociales en las que se desarrolla. Los sistemas de inteligencia artificial se alimentan de datos históricos, y esos datos están llenos de los mismos prejuicios que arrastran nuestras sociedades. Así, la ética algorítmica no es solo un problema técnico, sino profundamente social.
Los algoritmos reproducen jerarquías ya existentes, de género, de clase, de origen, de edad. En sus decisiones invisibles, a quién mostrar, a quién recomendar o a quién descartar, se entrelazan las desigualdades que estructuran nuestras vidas. Los patrones que el algoritmo considera “normales” suelen ser los de quienes han tenido más presencia, más visibilidad, en definitiva, más poder, y lo que no encaja en ese molde, simplemente desaparece. Así, por ejemplo, las personas migrantes pueden quedar fuera de sistemas automatizados de selección laboral. Las personas mayores pueden ser invisibles para los servicios digitales. Las minorías étnicas o minorías sexuales, las personas con discapacidad o con trayectorias vitales diferentes, son reducidas a ruido estadístico. En el lenguaje de la eficiencia, lo diverso se vuelve error.
En el ámbito de la Sociología, esto nos obliga a cambiar la pregunta. No basta con preguntarnos qué hacen los algoritmos, sino que debemos preguntarnos a quiénes dejan fuera. Porque detrás de cada decisión automatizada hay una definición implícita de lo que cuenta como humano, como valioso, como digno de ser visto. Por eso, una ética algorítmica verdaderamente transformadora no puede limitarse a la transparencia. Debe ser, además, inclusiva y participativa, interseccional, debe incorporar a todas las personas, especialmente a quienes suelen ser excluidas, en el diseño, en la decisión y en la evaluación de estas herramientas. No se trata de corregir un sesgo, sino de repensar las bases sociales sobre las que se programan nuestras máquinas.
El verdadero desafío no es tener tecnologías más inteligentes, sino sociedades más justas.
Porque mientras los algoritmos sigan aprendiendo solo de unos pocos, los demás seguiremos siendo los silenciados de la era digital.
Natalia Simón
Directora del departamento de Filosofía, Antropología,...Directora del departamento de Filosofía, Antropología, Sociología y Estética de la UCLM