La inteligencia artificial no es tan fiable (por ahora): "Los nuevos sistemas mejoran sus resultados en tareas difíciles, pero no en las fáciles"
Expertos en la materia alertan de los frecuentes errores de los sistemas en las cuestiones más sencillas
La Inteligencia Artificial se ha convertido en el recurso más usado por el ser humano en los últimos años. Diversas aplicaciones como ChatGPT, Read AI o FaceApp, entre otras, se emplean a diario en los puestos de trabajo y los centros educativos con el fin de hacer más llevadera cualquier tarea. Sin embargo, ciertos sistemas de respuesta como ChatGPT no siempre son tan eficaces como pensamos y a menudo nos dan una solución errónea a nuestras incógnitas.
Más información
En un estudio publicado por la revista Nature, varios investigadores y expertos que formaron parte de un grupo contratado por OpenAI para testar el modelo ChatGPT-4, muestran cómo la inteligencia artificial es capaz de resolver problemas complejos, y de fallar en los más sencillos. “Los sistemas nuevos mejoran sus resultados en tareas difíciles, pero no en fáciles, así que estos modelos se vuelven menos fiables”, señala Lexin Zhou, coautor del artículo.
Cuando un usuario tiende a recurrir a este tipo de sistemas "fiables" para buscar una respuesta o solución a su problema, no repara su tiempo en contrastar los resultados propuestos en otros lugares como estudios, artículos o páginas web. De esta forma, nunca se sabe si la respuesta es correcta o si el sistema ha fallado. “Los modelos pueden resolver tareas complejas, pero al mismo tiempo fallan en tareas simples”, afirma José Hernández-Orallo, investigador de la UPV y otro de los autores. “Por ejemplo, pueden resolver varios problemas matemáticos de nivel de doctorado, pero se pueden equivocar en una simple suma”, agrega.
Confianza ciega
Tal y como destaca Zhou, los sistemas de IA sufrirán cada vez más problemas y tendrán más errores debido a que los humanos tienden a aumentar la dificultad. “Esa discordancia en expectativas humanas de dificultad y los errores en los sistemas, empeorará. La gente cada vez pondrá metas más difíciles para estos modelos y prestará menos atención a las tareas más sencillas. Eso seguirá así si los sistemas no se diseñan de otra manera”, explica el experto.
Otro de los aspectos que pueden deteriorar el funcionamiento de estas aplicaciones es la confianza ciega que pone el ser humano en ellas. Estos programas, al no reflejar un margen de error al usuario, provocan una sensación irreal de seguridad. Según los autores del estudio, debido a que la Inteligencia Artificial siempre otorga una respuesta, los usuarios confían en ella.
“Hasta que los modelos de lenguaje especializados en áreas sensibles como la medicina no rechacen ciertas preguntas, y dado el alto uso de estos modelos en la población general, llamamos a la concienciación sobre el riesgo que supone depender de la supervisión humana para estos sistemas, especialmente en áreas donde la verdad es crítica”, destacan los investigadores.
Una posible solución
Según revelan los autores del estudio, una de las soluciones que se pueden aplicar a los errores de la Inteligencia Artificial es reiterar las preguntas. “Si le preguntas varias veces, va a mejorar”, dice Zhou. De esta forma, el usuario obliga al sistema a replantearse la respuesta y dar otras opciones.
Otro remedio a este problema reside en la forma de formular las preguntas o plantear los casos. Emplear preguntas como “¿podrías responder?”, en vez de “por favor, responde a lo siguiente”, puede provocar que el sistema dé una respuesta diferente a la original.
Aun así, los expertos recomiendan contrastar la información obtenida por la IA para asegurarnos de no tener una respuesta equivocada. “Seguro que hay un montón de información útil, pero no me fiaría al 100%. Estos sistemas no son deterministas, sino aleatorios. En esa aleatoriedad pueden incluir algún contenido que se desvíe del original. Es preocupante”, concluye Zhou.