Directo

SESIÓN DE CONTROL Sánchez comparece en la última sesión de control del Congreso

Sociedad

Uns 150 supermercats catalans ja han incorporat una intel·ligència artificial que evita els robatoris i promet eliminar el racisme en la seguretat

El programa jutja a tots els clients per igual perquè no té els biaixos racistes dels humans, però els experts ho entomen amb escepticisme

Imatge d'arxiu / Fatih Kucuktezcan

Imatge d'arxiu

Barcelona

Uns 150 supermercats i botigues de Catalunya ja han instal·lat un programa de vigilància innovador fet amb intel·ligència artificial. Aquest software s'incorpora a les càmeres de seguretat i detecta els moviments sospitosos dels clients que puguin indicar un robatori. El programa pretén acabar amb el 60% dels robatoris que pateixen aquests establiments, la majoria dels quals són de grans superfícies. L'eina també promet ser un avenç social, perquè presumeix d'eliminar el biaix racista en la seguretat. Com que només analitza el moviment -i no el perfil o procedència dels possibles lladres- evita els estereotips que pot tenir inculcats un humà que es dediqui a la seguretat. Una qualitat que els experts analitzen amb escepticisme.

Vigilar sense biaix racista

El software, de l'empresa francesa Veesion, ven el seu producte com una manera de reduir els robatoris, però també com una manera de limitar els estereotips racistes. Paula Cárdenas, de l'equip de l'empresa, assegura a SER Catalunya que "els clicxés no tenen cabuda" al programa, perquè només analitza els moviments dels clients "encara que siguin la persona menys sospitosa possible segons els estàndars de la societat".

Aquest producte sorgeix quan les intel·ligències artificials cada vegada tenen més presència i quan s'està debatent si la regulació hauria de frenar ls seus límits ètics. Precisament en aquest context l'investigador del CSIC i expert en sistemes d'entrenament d'aquests programes, Pedro Meseguer, avisa que sovint la IA també reprodueix els biaixos: "El racisme també pot existir a les dades".

L'aprenentatge de cada IA, clau per determinar si serà racista

Meseguer també assegura que les intel·ligències artificials aprenen del que veuen a internet, i per això és important que les empreses controlin com s'entrenen: "Les dades a partir de les quals aprenguin seran determinants per veure si orientarà el seu comportament en un sentit o un altre". Amb tot, considera que el model ideal de seguretat és el model mixt: una IA que vigili i un humà que la supervisi.

A tota Espanya ja hi ha 800 botigues -la majoria supermercats- que han incorporat aquest software a les seves càmeres de vigilància, entre elles les 150 catalanes.

Ferran Dalmau

Ferran Dalmau

Editor de Hora 14 Catalunya los fines de semana. Periodista por culpa de Tintín. Sigo queriendo ser...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00