Directo

ENTREVISTA RODRI Sigue en directo la entrevista en 'El Larguero' a Rodri, el ganador del Balón de Oro

Hoy por Hoy Madrid NorteHoy por Hoy Madrid Norte
Ciencia y tecnología

Deepfakes de audio que imitan la voz de un ser querido, estafas cada vez más habituales

Este tipo de ataques se están perfeccionando gracias a la IA. También hablamos del ‘fraude del CEO’ a ayuntamientos

En la Ciberguarida (21/03/2023): Deepfakes de audio que imitan la voz de un ser querido, estafas cada vez más habituales.

En la Ciberguarida (21/03/2023): Deepfakes de audio que imitan la voz de un ser querido, estafas cada vez más habituales.

12:08

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1679396776121/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

Fuenlabrada

Los expertos en ciberseguridad empiezan a alertar de los riesgos que hay tras las deepfakes de audio generados por la Inteligencia Artificial (IA) capaces de imitar voces de seres queridos o personas conocidas por la víctima, que los delincuentes utilizan para cometer ciberdelitos. Utilizan estos testimonios que imitan la voz de un familiar o de una persona cercana para pedirles dinero, que supuestamente necesitan, con cualquier excusa. La persona a la que llaman reconoce la voz y entra fácilmente en el engaño.

Si bien los avances de la Inteligencia Artificial son muy positivos, también en malas manos, pueden utilizarse para cometer delitos, como el caso de este tipo de estafas que comienzan a proliferar, según indica José Antonio Rubio, doctor Ingeniero en Ciberseguridad por la URJC.

Incluso estando alerta sobre la existencia de estas estafas, las deepfakes de audio son cada vez más realistas y basta con imitar la voz de la personas de confianza para que la víctima caiga en la trampa. Para replicar una voz, los ciberdelincuentes sólo necesitan un software de síntesis de voz, audios cortos de la persona cuya voz se va a suplantar y realizar una llamada a la persona a la que se le pide dinero. “Con tomar un pequeño fragmento de voz que una persona haya subido a su Facebook, por ejemplo, con eso es suficientes para poder replicar su voz y cometer la estafa”, afirma Rubio.

Son llamadas con requerimientos urgentes, a veces, con cierto tinte dramático, apelando a los sentimientos de la víctima para que ésta no tenga tiempo de pensar, ni razonar y acceda a entregar el dinero. Por eso, Rubio recomienda que si sufrimos esta situación, antes de nada debemos llamar nosotros mismos al teléfono de la personas que angustiada nos pide dinero, para comprobar qué hay de verdad. También es recomendable fijarse en posibles distorsiones o fallos que inviten a pensar que es un audio falso.

‘Fraude del CEO’ a ayuntamientos

Además, con José Antonio Rubio hablamos de como el ‘fraude del CEO’ se empieza a dirigir a administraciones, como los ayuntamiento, según se ha conocido a raíz de la desarticulación de una organización criminal que había estafado con este sistema a dos consistorios, uno de Mallorca y otro en Cataluña, con un perjuicio de más de 600.000 euros.

En estos casos fue a través de un correo electrónico que suplantó la identidad de la empresas de limpieza que prestaba servicio a las dos administraciones. En él se pedía al departamento financiero el pago por servicios a un nuevo número de cuenta que les habían facilitado por correo electrónico, supuestamente, la empresa de mantenimiento de limpieza que tenían contratada, según ha informado la Policía Nacional.

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00