Julio Gonzalo Arroyo, experto en inteligencia artificial: "ChatGPT habla de oídas, como un cuñado, pero da el pego fenomenal"
Aimar Bretos entrevista al director del centro UNED de investigación en Procesamiento del Lenguaje Natural y Recuperación de Información, además vicerrector adjunto de Investigación y Transferencia
Madrid
ChatGPT es un "supercuñado". Esa es la tesis que sostiene Julio Gonzalo Arroyo, catedrático de la UNED y una de las personas que mejor conoce esta inteligencia artificial en nuestro país. "ChatGPT habla de oídas y eso nos cuesta muchísimo entenderlo. Habiendo aprendido a hablar de oídas y no teniendo capacidad de pensamiento racional, da el pego sensacionalmente", reflexiona Arroyo durante una entrevista en Hora 25 con Aimar Bretos. Pone un ejemplo muy concreto: si tú le preguntas a la máquina cuánto son 5+2 te contestará 7. Si ante eso tú le contestas "mi mujer no dice eso", lo más probable es que ChatGPT te conteste sugiriendo que "puede estar equivocada". En caso de que tu nueva respuesta sea "mi mujer nunca se equivoca", el resultado será que el chatbot te pida disculpas y reconozca su error inexistente.
"Cuando la inteligencia artificial empezó a desarrollarse, lo que intentaba era emular nuestro pensamiento racional. Nosotros sabemos cosas y sobre ello podemos razonar y llegar a conclusiones y tomar decisiones. La inteligencia tiene otra vertiente: la intuitiva. El lenguaje materno lo aprendemos sin pensar, somos capaces de hablar, siendo incapaces de pensar por qué hablamos. La intuición es capaz de llegar muy lejos", señala el catedrático. La máquina aprende aplicando a ciegas valores de una fórmula al azar. Ve ejemplos y trata de hacer predicciones. Sabe que acierta o se equivoca porque tiene ejemplos anotados. "Alguien lo ha puesto a mano, es como si tuviera un profesor. Cuando ha hecho unas pocas, no acierta ni una, pero a base de repetir, se va acercando a la solución. Cuando ha visto todos los ejemplos que tienes previamente anotados, es posible que empiece a acertar ejemplos que no tienes anotados. Ha aprendido exclusivamente de ejemplos", reflexiona Arroyo.
00:00
Compartir
El código iframe se ha copiado en el portapapeles
<iframe src="https://cadenaser.com/embed/audio/460/1689872326452/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>
"No sabemos bien cómo se ha entrenado ChatGPT. Lo ha hecho una empresa que se llama OpenAI, pero cuando se han dado cuenta de que era monetizable, lo han empezado a cerrar", argumenta el experto. Hace unas semanas, multitud de científicos, empresarios y divulgadores relacionados con la inteligencia artificial, lanzaron un manifiesto mundial pidiendo un alto, una suspensión temporal en el desarrollo de estos sistemas. "Estamos lejos de tener una inteligencia artificial general que emule nuestra forma de pensar y de tomar decisiones. Pensar en el apocalipsis de las máquinas que van a acabar con nosotros, pues todavía no. Da la sensación de que el movimiento que ha hecho el CEO de OpenAI es para quitarse la competencia de encima", señala el investigador.
Más información
- "El mundo se dividirá entre quien pueda permitirse tratar con un humano y quien no"
- Los creadores de la Inteligencia Artificial advierten por carta que esta tecnología pone en "peligro de extinción" a la humanidad
- Bard llega a España: así es el chat de inteligencia artificial de Google que aspira a desbancar a Chat GPT
El catedrático pone otro ejemplo del funcionamiento actual de los algoritmos. YouTube funciona a través de 'máquinas' que aprenden, pero ese aprendizaje lo han sacado de algún sitio. "Les han enseñado a que la gente se quede lo máximo posible. Cuanto más tiempo se queden viendo vídeos, mejor. La máquina aprende a que tiene que recomendar vídeos de mayor duración y unos años después tienes que ha aumentado la creencia sobre el terraplanismo. El algoritmo no entra en si es bueno o malo, sino en que te quedes más", cuenta Arroyo.
Alejandro Becerra
Redactor de 'Hora 25' desde octubre de 2020. Previamente estuve en la web de la Cadena SER. Graduado...