“Saber, entender y actuar”: la defensa algorítmica, la nueva alfabetización digital según Lorena Fernández
La directora de Comunicación Digital de la Universidad de Deusto explica en el espacio “De las ondas a la red” de Hoy por Hoy Bilbao-Bizkaia las claves del manual de defensa algorítmica de Prodigioso Volcán, una guía ciudadana para entender y frenar los abusos de la inteligencia artificial

“Saber, entender y actuar”: la defensa algorítmica, la nueva alfabetización digital según Lorena Fernández
El código iframe se ha copiado en el portapapeles
Los algoritmos están presentes en decisiones que afectan cada vez más a la vida diaria: la concesión de ayudas públicas, el acceso a un empleo, la moderación de contenidos o la visibilidad en redes sociales. En palabras de Lorena Fernández, directora de Comunicación Digital de la Universidad de Deusto, “defenderse de los algoritmos ya no es una opción, es la nueva alfabetización digital que toda persona necesita”.
La experta ha participado en una nueva entrega de la sección “De las ondas a la red” de Hoy por Hoy Bilbao-Bizkaia, donde ha analizado el Manual de defensa algorítmica, elaborado por la periodista Esther Paniagua y publicado por Prodigioso Volcán. El documento, disponible bajo licencia Creative Commons, busca dotar a la ciudadanía de herramientas para ejercer sus derechos en un entorno cada vez más automatizado.
Tres derechos para una defensa algorítmica activa
El manual propone tres pilares básicos de actuación: saber, entender y actuar. Según Fernández, “estos tres pasos son una estrategia para pasar de ser usuarios pasivos a ciudadanos digitales conscientes”.
- El derecho a saber consiste en conocer cuándo y cómo intervienen los algoritmos en las decisiones que afectan a las personas. “Tenemos derecho a exigir transparencia sobre qué datos se usan, quién es responsable y qué impacto tienen esas decisiones”, señaló la experta.
- El derecho a entender implica que la información sobre los sistemas automatizados debe ser clara y comprensible. “No puede requerir una carrera de ingeniería para entenderla. La información debe ser accesible y fácil de interpretar”, añadió.
- El derecho a actuar permite reclamar, impugnar o exigir una revisión humana cuando una decisión automatizada resulta injusta. Fernández insistió en que “a nivel individual es difícil enfrentarse a los gigantes tecnológicos, pero de forma colectiva sí se pueden lograr cambios reales”.
Casos reales y victorias ciudadanas
Entre los ejemplos analizados, Fernández recuerda el caso del sistema policial Veripol, desarrollado por el Ministerio del Interior para detectar denuncias falsas mediante inteligencia artificial. El sistema fue retirado en 2024 tras comprobarse, gracias a una investigación de la Universidad de Valencia y la presión de organizaciones civiles, que presentaba graves deficiencias metodológicas y falta de transparencia.
“Veripol demuestra que la sociedad civil, la academia y el periodismo pueden lograr que la tecnología rinda cuentas”, subraya Fernández. El manual también menciona avances legislativos como la Ley Rider de 2021, que obligó a las plataformas digitales a informar a los trabajadores sobre los algoritmos que afectaban a su empleo, y la reciente Ley Europea de Inteligencia Artificial de 2024, que refuerza los derechos a la explicabilidad y la supervisión humana.
De la vigilancia individual a la fuerza colectiva
El manual destaca que la defensa algorítmica se fortalece colectivamente, a través de plataformas como IA Ciudadana, que agrupa a entidades como Civio, Political Watch o Digital Fems. Estas organizaciones asesoran a la ciudadanía y promueven la transparencia y la rendición de cuentas en el uso de la inteligencia artificial.
Para Fernández, “solo una sociedad informada, vigilante y colaborativa podrá construir un futuro digital verdaderamente democrático”. La defensa algorítmica, añade, “no busca frenar la innovación, sino garantizar que el desarrollo tecnológico se haga con justicia, equidad y transparencia”.
Escucha el programa
Escuchar
11:17
Escuchar
09:02
Escuchar
11:52
Escuchar
10:32
Escuchar
13:15
Escuchar
10:35
Escuchar
14:04
Escuchar
13:33
Escuchar
16:56
Escuchar
13:31
Escuchar
12:41
Escuchar
18:34
Escuchar
10:08
Escuchar
14:49
Escuchar
14:50




