Los estafadores se arman con inteligencia artificial para hacer 'love bombing' a varias personas a la vez
Les permite mantener varias conversaciones y planificar la manipulación emocional usando información de las víctimas
Mujer joven utilizando el móvil por la noche / skynesher
Madrid
La técnica psicológica del bombardeo de amor (love bombing) la usan los delincuentes para "manipular emocionalmente a la víctima y crear un vínculo muy intenso en el menor tiempo posible, con el objetivo de conseguir dinero o algún otro tipo de beneficio".
Más información
Los criminólogos ya conocían este sistema, pero ahora están comprobando cómo "a este potente mecanismo de seducción psicológica se le ha sumado la inteligencia artificial generativa".
La criminóloga Patricia Hernández Hidalgo, profesora de Criminología en la Universidad Oberta de Cataluña y experta en ciber-victimización, explica que no hay datos claros sobre cómo está creciendo este problema "porque se incluye dentro del total de ciberestafas" que se producen en el país.
Lo que sí tiene claro es que "la IA permite a los estafadores automatizar la creación de perfiles y conversaciones, y facilita la manipulación psicológica con tecnologías como el deepfake, que permiten suplantar voz e imagen".
¿En qué consiste el love bombing digital?
Como concepto general, es una técnica psicológica de manipulación que hace que la persona que lo ejerce quiera llevar a la víctima, digamos, a una situación de abrumación, de intensidad, de generar un enganche entre los dos, para que la persona que recibe el love bombing crea que está en una relación, crea que tiene un vínculo emocional con otra persona, cuando en realidad el objetivo de quien lo aplica es conseguir algo.
¿Dinero?
Ese algo puede ser conseguir dinero, como en el caso de estafas románticas económicas, o conseguir sexo, o algún tipo de contraprestación en su propio interés, utilizando a la otra persona para ello.
La otra persona cree, erróneamente, que está en un vínculo, pero en realidad no lo está.
¿Y cómo lo hacen?
Generando un contacto muy intenso, muy rápido, con la intención de crear de la manera más rápida posible un vínculo, una lealtad por parte de la otra persona, una dependencia.
Claro, esto ha existido siempre, sí, pero actualmente, hoy en día, con todo el tema digital, lo cierto es que ese love bombing se ha intensificado o, más bien… se ha masificado.
¿Por qué?
Pues porque esta persona que te está escribiendo lo hace todo el día: por la mañana, al mediodía, por la noche; te da las buenas noches, los buenos días; "qué bonita eres", "cuánto te quiero", "cómo te echo de menos"…
Ese bombardeo, nunca mejor dicho, hace que la víctima entre en una sensación de nube de… "¡ostras, esta persona es como mi alma gemela! Está todo el día pendiente de mí".
¿Tenemos que pensar que estas personas estudian a la otra persona para ser más efectivos?
Sí. Estudian a la víctima, ven qué tipo de persona es, si es una persona necesitada de atención, que puede estar en un momento de su vida un poco delicado, o pueden detectar ciertas carencias de autoestima… En fin, la estudian y se convierten en lo que la víctima quiere oír y necesita.
De esa manera, la víctima se engancha a esa persona. A lo que la persona le está ofreciendo, que recordemos, no es real, no es un vínculo real, es una farsa, pero aparentemente es todo maravilloso.
Ese enganche —y esto es lo más importante— genera en la persona una modificación química del cerebro. Esa situación de intensidad, de rapidez, de atención desmesurada y desproporcionada genera algo parecido a una adicción y altera la bioquímica, es decir, genera hormonas del placer, adrenalina.
Un "estoy pendiente de que me conteste", de manual.
Estoy pendiente de que me llame, de que me diga… Y eso lleva a la persona a no detectar situaciones que la pueden poner en peligro.
¿A qué te refieres?
A que al final me pida dinero y yo se lo dé. Claro, estoy en la ensoñación —el engaño— de que es mi pareja y estoy súper enamorada/o.
¿Qué papel juega aquí la inteligencia artificial generativa?
Los chatbots y la inteligencia artificial lo que están haciendo es expandir este fenómeno a un número mayor de personas. ¿Por qué? Porque una persona que quiera estafar a alguien en este sentido y sacar dinero puede decirle a ChatGPT: "Necesito que me crees tres relatos distintos para conseguir esto". Y entonces ChatGPT, como hace lo que tú le dices, te hace el trabajo.
Una única persona antes tenía que estar todo el día pensando cómo explicarlo, cómo escribirlo. Es un tema de tiempo y recursos. Ahora le pido al chat, a la IA, que me lo haga, que me genere una imagen, que me genere una foto, y eso me permite llegar a más gente, por ejemplo.
Estas personas, las que se dedican a estafar económicamente con este modus operandi, pueden estar haciendo esto —y siempre lo hacen así— con varias personas a la vez. Si te lo hace una máquina y te facilita el trabajo, puedo llegar a más gente y conseguir más dinero, por ejemplo.
¿Y el tema de las imágenes y los vídeos?
También. La IA ya puede generar de todo. Le dices: "Hazme una imagen de un hombre de tal edad, con el pelo rubio", y lo mandas. Y como son tan reales, pues es difícil ver que eso no es real…
¿Hay datos de cuántas denuncias se registran o tenéis alguna forma de cuantificar ese incremento del que me hablas?
El tema de los datos es complicado, porque los datos judiciales y policiales no diferencian los tipos de estafa. Hablan de delito de estafa y ponen la cifra, no se diferencia. Y las ciberestafas también incluyen estafas de tipo phishing y temas más bancarios.
Entonces, a nivel de datos, no tenemos judicial o policialmente datos específicos de este tipo de estafas. Eso es un problema, porque no conocemos el fenómeno a nivel de lo que se llama en criminología la cifra negra. Pero se presume alta o hay indicios de que está creciendo. Habría que hacer encuestas de tipo autorreveladas, en las que se pregunta a la población si ha sufrido esto.
¿La policía está preparada para este tipo de delincuencia?
Bueno, yo creo que la realidad de la IA y del campo tecnológico va siempre mucho más rápido que el tiempo de reacción que tenemos como sociedad, a todos los niveles: a nivel judicial, a nivel policial e incluso a nivel de salud mental.
Esta gente cada vez, más deprisa, se inventa más artilugios para que sea difícil de probar lo que están haciendo, y hablo a nivel general de la ciberdelincuencia. En estos casos, además, el factor emocional y personal hace que la víctima, en muchas ocasiones, no denuncie, porque hay un factor de vergüenza.
Ejemplo: a mí me estafan dinero a través de una estafa al uso, como el phishing, y voy a la comisaría y denuncio. Pero si he hecho yo la transferencia a alguien que me ha engañado porque yo me he creído que era una relación, seguramente no haga nada por vergüenza.
A la gente no le gusta reconocer que les han engañado emocionalmente, porque pensamos: "Es que soy más tonta que los demás", "más tonto que los demás".
¿Y cómo puede ser que una persona le dé a otra 20.000 euros aunque nunca se hayan visto?
Por eso hay que entender cómo funcionan los love bombings, porque es un mecanismo psicológico-neurobiológico del cerebro que te hace cambiar la perspectiva y te hace dejar de estar con la alerta puesta.
Esa dependencia emocional lleva a la víctima a no cuestionar, a no ver señales de alerta, mientras que la otra persona tiene como único objetivo, desde el principio, engañarla para conseguir X, en este caso dinero.
¿Tenéis constancia ya de casos en los que un humano tenga una red de IA conversacionales participando en ese juego tan terrible de manipulación psicológica?
Es gente que está todo el día tratando de buscar la mayor optimización posible de recursos para llegar al mayor número posible de víctimas y conseguir el mayor número de estafas o de dinero. Es pescar con el mayor número de cañas posibles.
¿Qué crees que habría que hacer para frenar este fenómeno?
Nosotros, los criminólogos, siempre apostamos por la prevención. Es mejor una buena prevención que una intervención cuando ya se ha producido el hecho, porque la persona ya está afectada, está perjudicada, y entonces hay que intervenir antes.
¿Cómo intervenimos antes?
Pues haciendo divulgación y dando información. Información como, por ejemplo, esta entrevista, o que se hable en la sociedad de que esto está pasando, de cuáles son los signos de alerta, de cuándo yo puedo darme cuenta de que me estoy metiendo en algún sitio del que me tengo que ir. La información siempre es poder y la gente, si sabe identificar factores de riesgo y signos de alerta, puede salvarse de una estafa así.
¿Qué es lo que hay que hacer? ¿Cuál es la recomendación que tú darías?
Es igual que cuando tienes un amigo que consume drogas. Le dices: «Ostras, veo que esto se te está yendo de las manos». Y él responde: «No, no, yo controlo, no pasa nada». Esa negación es porque hay una adicción, una adicción psicológica. Esa persona está metida en esa telaraña y está fuera de la realidad.
Para evitar eso, hay que identificarlo desde el inicio para no entrar en la telaraña. Cuanto más tiempo pase, más difícil es que yo me dé cuenta y que mi cerebro me ponga en alerta y me diga: cuidado, que esta intensidad no es normal. Alguien que te conoce desde hace tres semanas no puede estar diciéndote que se quiere casar contigo, que eres lo mejor de su vida o el hombre o la mujer de su vida. Eso tiene que ser una señal de alerta desde el minuto uno.
La intensidad rápida, el sentirte abrumado.
Y la desproporción entre el tiempo que llevas y todo lo que es la idealización y la alma-gemelización. Confundir la intensidad con amor.
Y en digital es mucho más difícil.
No sabes si esa persona es una mujer, un hombre, o si realmente lo que está diciendo es verdad o no. Perdemos el control del lenguaje no verbal y ahí se pierden muchos indicadores que, como humanos, en el cara a cara, tenemos. Si todo es digital, perdemos un montón de pistas que nos pueden indicar situaciones de riesgo.
Javier Ruiz Martínez
Redactor de temas de sociedad, ciencia e innovación...Redactor de temas de sociedad, ciencia e innovación en la SER. Trabajo en el mejor trabajo del mundo: hacer radio. Me gusta contar historias desde la calle.