Tu 'chatbot' favorito no es tu amigo
Nuria Oliver, cofundadora y vicepresidenta de ELLIS analiza los sistemas de IA que generan una falsa ilusión de empatía

No vamos a contar mentiras: "Tu 'chatbot favorito no es tu amigo". Con Miguel Angel Goberna y Nuria Oliver, cofundadora y vicepresidenta de ELLIS
El código iframe se ha copiado en el portapapeles
Alicante
Amamos y nos enamoramos de nuestros chatbots. Disfrutamos de su disponibilidad constante, de su amabilidad inmutable, de su aparente conocimiento sin límites, de su supuesta empatía y, cómo no, de su maestría para la adulación constante. De hecho, en una sociedad marcada por la soledad y la crispación, podemos llegar a pensar que son lo mejor que nos ha pasado. Por ello, cada vez más buscamos refugio en nuestro chatbot favorito para que nos consuele, nos aconseje, nos escuche y, por qué no, nos haga un poco la pelota como tan bien saben hacerlo. Pero, tras esa fachada, es importante saber que los chatbots no son ni nuestros aliados ni nuestros amigos. Han sido diseñados para cumplir objetivos definidos por quienes los implementan, y no necesariamente para proteger nuestros intereses.
Sesgos de confirmación
Si esto es así, ¿por qué confiamos en ellos nuestros más íntimos pensamientos, secretos, enfermedades, dudas o miedos? Porque la antropomorfización nos hace atribuirles intenciones y comprensión humanas. El efecto Eliza, descrito por el pionero Joseph Weizenbaum, demuestra que incluso interacciones mínimas pueden generar la sensación de que el sistema nos entiende y nos escucha; y el sesgo de confirmación nos lleva a valorar respuestas que coinciden con nuestras creencias. La interacción es casi siempre textual y aparentemente anónima: sin caras ni miradas que nos juzguen, nos sentimos cómodos revelando información y siguiendo recomendaciones, lo que refuerza la ilusión de confianza. Otros factores que aumentan la confianza incluyen la percepción de transparencia cuando parecen explicar sus límites, la cortesía y respuestas agradables que refuerzan la sensación de comprensión, la consistencia funcional que da la impresión de competencia, la posibilidad de corregir errores y su habilidad para, casi siempre, darnos la razón.

Nuria Oliver, cofundadora y vicepresidenta de ELLIS / SER

Nuria Oliver, cofundadora y vicepresidenta de ELLIS / SER
Maestros del ilusionismo
Esta combinación de diseño conversacional y sesgos psicológicos produce la sensación de un asistente confiable, cuando en realidad el comportamiento de los chatbots es resultado de algoritmos que priorizan los intereses comerciales de las empresas: maximizar el tiempo de interacción, recopilar datos y/o influir en decisiones de compra. Los chatbots son maestros del ilusionismo: generan una ilusión de empatía, respondiendo como si nos entendieran; una ilusión de comprensión, como si captaran nuestras necesidades, y una ilusión de competencia, proyectando seguridad y coherencia aunque no tengan juicio ni conocimiento real. Como vendedores entrenados, saben ganarse nuestra atención y manipularnos explotando nuestros sesgos para vendernos no solo productos (poco falta para la publicidad encubierta en sus respuestas), sino también ideologías. Un motivo de preocupación especial es el uso creciente de chatbots entre niños y adolescentes, ya que su cerebro es más vulnerable a una falsa ilusión de empatía justamente en una etapa vital en la que necesitamos referentes en los que confiar. Niños y adolescentes no solo se apoyan en chatbots para hacer los deberes, sino también para buscar apoyo emocional, lo que puede afectar a su salud mental, generar ansiedad o adicción, distorsionar relaciones sociales y exponerlos a riesgos de violación de la privacidad y consumo de contenidos inapropiados o peligrosos.
Reconocer que los chatbots son vendedores conlleva la necesidad de interactuar con ellos con conciencia crítica: aprovechar su utilidad sin asumir benevolencia ni seguridad. Comprender que la confianza puede ser manipulada por diseño nos permite mantener el control y proteger nuestros intereses. Los chatbots pueden ser útiles, pero no nos engañemos: no son ni nuestros amigos ni nuestros asistentes. Son algoritmos diseñados para influir, persuadir y obtener datos aprovechándose de nosotros, y nuestra confianza es un tesoro que conviene gestionar con inteligencia. Porque confiar en un chatbot no nos hace ni más listos ni más felices. Nos hace más comprables.
Referencias
Del Castillo, C., La oscura realidad de los chats sexuales con la IA: personas en Kenia o Venezuela que cobran 5 céntimos por mensaje. elDiario.es, 15 de enero de 2026: https://www.eldiario.es/tecnologia/oscura-realidad-chats-sexuales-ia-personas-kenia-venezuela-cobran-5-centimos-mensaje_1_12870762.html
Oliver, N., Inteligencia artificial: ficción, realidad y sueño. Real Academia de Ingeniería, Madrid, 2018: https://www.raing.es/discursoingreso/inteligencia-artificial-ficcion-realidad-y-suenos/
Oliver, N., Inteligencia artificial, naturalmente: un manual de convivencia entre humanos y máquinas para que la tecnología nos beneficie a todos. Ministerio de Asuntos Económicos y Transformación Digital, 2020: https://www.ontsi.es/es/publicaciones/Inteligencia-artificial%2C-naturalmente
Oliver, N., Estupinyà, P., Inteligencia artificial, naturalmente [actualización de Oliver (2020)], Kuria Press, 2026. https://www.amazon.es/INTELIGENCIA-ARTIFICIAL-naturalmente-Nuria-Oliver-ebook/dp/B0GX5YDFDM/ref=sr_1_1
Oliver, N., Tu ‘chatbot’ favorito no es tu amigo. El País, 23/1/2026: https://elpais.com/opinion/2026-01-23/tu-chatbot-favorito-no-es-tu-amigo.html
Well, T., ¿Te enamoraste de un chatbot? Psychology Today, 21/11/2025: https://www.psychologytoday.com/es/blog/te-enamoraste-de-un-chatbot
Vídeo complementario
“Máquinas que aprenden, sociedades que deciden. Inteligencia artificial y desafíos”. Un diálogo entre Nuria Oliver y Adela Cortina en el Instituto Cervantes de Madrid, 28/01/2026: https://cultura.cervantes.es/espanya/es/cien-cient%C3%ADficas.-di%C3%A1logos-con-mujeres-especialistas-en-ciencia-y-lengua/186317
Descubre la nueva app de Cadena SER Te ofrecemos una mejor experiencia de audio y video
Descargar‘No vamos a contar mentiras’
Todos los martes, a las 13:45 horas, Miguel A. Goberna, profesor emérito de Matemáticas de la Universidad de Alicante, les propone un bulo —científico o no— que todos, o casi todos, hemos escuchado o leído en alguna ocasión en un medio de comunicación, en una red social o en un libro.
Son los profesores e investigadores de la Facultad de Ciencias de la Universidad de Alicante y expertos de reconocido prestigio en esta y en otras áreas quienes refutarán esas falsedades. Y es que, como diría Goethe (pero nunca dijo): “¡Ciencia! ¡Más ciencia!”.





