Selecciona tu emisora

Ir a la emisora
PerfilDesconecta
Buscar noticias o podcast

Los chatbots de IA son inconsistentes al responder preguntas sobre el suicidio

Los especialistas afirman que la relación humano-humano sigue siendo insustituible

La IA no es capaz de detectar todas las señales de peligro vinculadas a cuestiones como el suicidio

La IA no es capaz de detectar todas las señales de peligro vinculadas a cuestiones como el suicidio

00:00:0001:19
Descargar

El código iframe se ha copiado en el portapapeles

El uso de modelos de inteligencia artificial generativa como ChatGPT es cada vez más frecuente para consultas relacionadas con la salud mental, lo cual puede derivar en situaciones de dependencia emocional en determinadas personas, según advierten los psicólogos, además de conllevar riesgos en la fiabilidad y confidencialidad de las respuestas.

Más información

El responsable de la Vocalía de Psicología Clínica y de la Salud del Colegio Oficial de Psicología de Baleares (Copib), Xavier Revert, ha destacado, que "la accesibilidad y disponibilidad las 24 horas del día de estas herramientas las hace especialmente atractivas".

"Hoy en día, cuando tenemos una duda sobre cualquier tema, sacamos el móvil del bolsillo, escribimos nuestra pregunta y en pocos segundos tenemos una respuesta", ha señalado Revert.

El psicólogo ha explicado que "antes se utilizaba lo que vulgarmente se llamaba 'doctor Google' para buscar síntomas asociados a alguna enfermedad", incluidos también los trastornos psicológicos o emocionales, y "ahora nos dan una respuesta rápida y accesible construida en base a la información disponible en las bases de datos y en Internet".

Reportaje EP189 | Deepfakes: la nueva cara de la violencia sexual

Reportaje EP189 | Deepfakes: la nueva cara de la violencia sexual

00:00:0010:54
Descargar

El código iframe se ha copiado en el portapapeles

Así, preguntado por si ha habido un aumento de pacientes que consultan herramientas como ChatGPT antes que acudir a un profesional, Revert ha afirmado que, desde su experiencia personal, diría que "sí ha habido un incremento".

Riesgo de generar vínculos con la inteligenica artificial

En este sentido, el vocal del Copib ha afirmado que la interacción con modelos como ChatGPT se caracteriza por la personalización progresiva de las respuestas, cosa que puede llevar a los usuarios a establecer una relación con la herramienta."A medida que vamos interactuando con estas IA, van entendiendo cada vez más nuestras preferencias, por ejemplo, si queremos un estilo de respuesta más desenfadado, ha explicado.

"Estamos diseñados para generar vínculos y, en ese sentido, podría llegar a ser algo que generara dependencia en algunas personas, sobre todo en aquellas con una personalidad más dependiente", ha advertido.

Revert ha citado la película 'Her' (2013), "un ejemplo fantástico de cómo un humano se enamora de una inteligencia artificial". "Como en la película, todo depende del grado de dependencia que podamos establecer con ese diálogo", ha afirmado.Asimismo, ha asegurado que uno de los factores que impulsa el uso de la IA en este ámbito es la ausencia de juicio humano. "Las respuestas se van adaptando a nuestro estilo y, en algún momento, la dependencia se puede generar muy fácilmente", ha indicado.Así pues, ha alertado de que la falta de una respuesta crítica, como la que podría ofrecer un familiar o un terapeuta, limita la utilidad de estas interacciones.

Para prevenir este riesgo, Revert ha instado a "una mayor educación" en el uso de estas tecnologías.En cuanto a los problemas más habituales que se consultan a la IA, el psicólogo ha apuntado que pueden abarcar "casi cualquier tipo de duda relacionada con la salud mental o emocional", como dificultades para dormir, insomnio o episodios de ansiedad. Además, ha recordado que las recomendaciones suelen ser "bastante genéricas".Aun así, ha señalado que, desde el ámbito de la psicología, "si estas tecnologías funcionan como funcionan es, en parte, gracias a estudios de la ciencia y la psicología cognitiva, que están permitiendo estructurar estos modelos".

La Ventana a las 16h | Profunda mente: Suicidio

La Ventana a las 16h | Profunda mente: Suicidio

00:00:0048:45
Descargar

El código iframe se ha copiado en el portapapeles

Fiabilidad y confidencialidad

Por otro lado, Revert ha subrayado que la fiabilidad de las respuestas es "uno de los riesgos más importantes", ya que pueden no ser rigurosas o correctas."Si confiamos ciegamente, sin criterio crítico, --porque son preguntas que hacemos precisamente por desconocimiento--, la situación se complica", ha advertido, al recordar que la práctica profesional se apoya en formación y experiencia contrastadas.El responsable del Copib ha incidido, además, en la importancia de la confidencialidad en la práctica psicológica frente a la opacidad en el uso de datos por parte de las plataformas tecnológicas."Cuando acudimos a un profesional de la psicología existe confidencialidad y discreción sobre información muy sensible, algo que desconocemos cómo se maneja en el caso de estos modelos", ha señalado.

¿Cómo usar estas tecnología correctamente?

Por todo ello, Revert ha recomendado tomar estas tecnologías como herramientas de autoayuda complementarias, pero nunca sustitutivas de la atención profesional.

Ha recordado que, al igual que ocurre con los manuales de autoayuda, la información que aporta puede ser útil siempre que se entienda como genérica, con el añadido de que en el caso de la IA no existe un filtro editorial o científico previo. En este sentido, considera un "peligro" pensar que la parte terapéutica es "solo tener herramientas --que es lo que nos dan las inteligencias artificiales generativas, cuando lo importante es el vínculo con la otra persona, no los recursos que pueda dar".

Asimismo, el psicólogo ha defendido que, pese a los avances en teleasistencia y a la posibilidad futura de interactuar con modelos que respondan con voz o incluso con apariencia física, "la relación humano-humano sigue siendo insustituible en la terapia"."La confianza, la intimidad y la confidencialidad forman parte esencial del vínculo terapéutico y eso no puede reemplazarlo una máquina", ha añadido.Además, ha aconsejado que si utilizamos estas tecnologías, debemos hacerlo siempre "con la precaución de saber que hay un cierto grado de sesgo o de error en los respuestas".

"Incluso estaría bien que le preguntáramos a la inteligencia artificial dónde ha encontrado la información y, así, nosotros mismos podríamos profundizar un poco más en la respuesta que nos haya dado", ha concluido.

 

Directo

  • Cadena SER

  •  
Últimos programas

Estas escuchando

Hora 14
Crónica 24/7

1x24: Ser o no Ser

23/08/2024 - 01:38:13

Ir al podcast

Noticias en 3′

  •  
Noticias en 3′
Últimos programas

Otros episodios

Cualquier tiempo pasado fue anterior

Tu audio se ha acabado.
Te redirigiremos al directo.

5 "

Compartir