La Ventana Comunitat Valenciana
Ciencia y tecnología

Martínez Plumed (UPV): "Como usarios debemos ser críticos ante las respuestas de la IA, no se puede confiar plenamente"

Un estudio revela una tendencia alarmante: en comparación con los primeros modelos de IA, la fiabilidad ha empeorado en los modelos más recientes

Entrevista a Fernando Martinez Plumbed, investigador de VRAIN UPV, en La Ventana CV 25/09/2024

valencia

Un estudio de la Universitat Politècnica de València, ValgrAI y la Universidad de Cambridge revela una tendencia alarmante: en comparación con los primeros modelos de IA, la fiabilidad ha empeorado en los modelos más recientes. El estudio lo publica, este miércoles, la revista Nature. Hablamos de ello con Fernando Martínez Plumed, investigador de VRAIN UPV, Instituto Universitario Valenciano de Investigación en Inteligencia Artificial. Ha empeorado en diferentes aspectos, pero conviene matizar. "La última versión es mucho mejor, más potente, puede resolver problemas más difíciles de los que podían resolver sistemas más antiguos, por ejemplo GPT 4 comparado con GPT 3 , pero a su vez, siguen fallando en problemas muy sencillos", explica el investigador pero por qué supone esto. "Que no tenemos unas condiciones de operación seguras, al final no podemos utilizar estos sistemas como extensores cognitivos, como podría ser una calculadora que sabemos que no va a fallar. Puede que lancemos un problema de física cuántica, que solo un estudiante doctorado podría resolver y lo hace correctamente GPT 4, y, sin embargo, le ponemos un programa muy sencillo a nivel de primaria y sigue fallando, claro, perdemos esa fiabilidad, no podemos confiar plenamente en las respuestas".

Es decir, que podemos encontrarnos con que estos sistemas pueden llegar a resolver problemas complejos aritméticos en cuanto a número de cifras, "pero también vemos que siguen fallando en en en operaciones aritméticas muy sencillas, si bien es cierto que a nivel de complejidad cuanto más difícil se asuma también va a seguir fallando, pero que siga fallando en sencillas es lo destacable", por lo que se entiende que la seguridad total de infalibilidad, no existe. "Exacto. Buscamos unas condiciones en nuestro sistema de operación seguras. Siempre tenemos que tener como usuarios, esa visión crítica analítica de la respuesta dada, no voy a confiar plenamente en que es buena. Voy a tener que realizar un análisis crítico y voy a cerciorarme de que realmente es correcto", expone Martínez pero qué pasa si alguien usa esa inteligencia artificial para un trabajo complejo, ¿cómo puede detectar esos errores, si es un asunto que sobrepasa su capacidad de entendimiento?

"Entran dos aspectos clave. Hemos hecho un análisis sociológico en el que hemos visto que la supervisión humana no compensa. Muchas veces, los humanos dan como ciertas respuestas que nos proporcionan por los últimos modelos de GPT 4, porque la respuesta es, más o menos,compleja, más o menos enrevesada, parece que el sistema lo está haciendo bien, cuando realmente no lo está haciendo. El humano, si no tiene la capacidad de evaluar, si esa respuesta es correcta o no, pues igual se la cree, y como también, hemos dicho, al final estos nuevos sistemas fallan también en problemas más complejos mientras que sistemas previos no fallaban en problemas complejos, pues lo que hacían era hacer lo que haríamos cualquier humano... no se la respuesta a esta pregunta. Esa visión crítica, ese análisis que tenemos que utilizar, que tenemos que realizar como usuarios, es fundamental.

Sigue toda la última hora en el canal de Whatsapp de Radio Valencia: haz clic aquí y suscríbete para recibir toda la información y la actualidad del día en tu móvil.