Hora 25Las entrevistas de Aimar
Ciencia y tecnología

"Podremos llegar a tener psicólogos no humanos": Pilar Manchón, división de Google para la inteligencia artificial

Aimar Bretos entrevista a Pilar Manchón, directora senior de estrategia de investigación de Google Research

Madrid

En los últimos años hemos asistido a una evolución sin precedentes de la inteligencia artificial. Programas informáticos que utilizan inteligencia artificial como 'ChatGPT' nos han dejado con la boca abierta por su capacidad de replicar la inteligencia humana. Ahora mismo, no somos capaces de ver el alcance de esta tecnología y las consecuencias para nuestro futuro como especie. Para comprender un poco mejor de qué estamos hablando cuando nos enfrentamos a la inteligencia artificial conversamos en 'Hora 25' con Pilar Manchón, la directora senior de estrategia de investigación de Google Research, es decir: la responsable de hacia dónde se dirige la inteligencia artificial de Google.

La entrevista empieza con los miedos de Aimar Bretos a que, en el futuro, una inteligencia artificial le quite el trabajo: "¿Esta entrevista, en diez o veinte años, se la podría hacer un asistente de inteligencia artificial?", pregunta el periodista. "Yo creo que sí, jajaja. Probablemente no tendría tanta personalidad ni creatividad, pero sí creo que en un tiempo no muy lejano vamos a tener asistentes virtuales muy inteligentes que van a ser capaces de hacer cosas impresionantes", responde Pilar Manchón.

"Ahora mismo, el que no empiece a utilizar y adoptar la inteligencia artificial corre un peligro serio de quedarse obsoleto en distintos periodos de tiempo en función de qué mercado estés", dice la directora senior de estrategia de investigación de Google Research. "Hay un cierto nivel de incertidumbre. A los humanos, el cambio siempre nos pone algo nerviosos. Hay una cierta reticencia, pero también hay curiosidad y ganas de embarcarse. Animo a la gente a aprender, a formarse".

Las entrevistas de Aimar | Pilar Manchón

Las entrevistas de Aimar | Pilar Manchón

27:47

Compartir

El código iframe se ha copiado en el portapapeles

<iframe src="https://cadenaser.com/embed/audio/460/1716480516129/" width="100%" height="360" frameborder="0" allowfullscreen></iframe>

Problemas éticos

¿Qué dilemas éticos están surgiendo a la hora de avanzar en el desarrollo de la inteligencia artificial? "La inteligencia artificial generativa se basa en los transformers. Cuando hablas de GPT, esa T es de transformers, una tecnología que de hecho nació en Google en 2017 y que implica que cuando sacamos resultados, contestamos una respuesta o hacemos algo en esa línea, no se garantiza al cien por cien la veracidad de ese contenido. Tampoco se garantiza que haya un sesgo, porque el sesgo está en los datos y, aunque limpies los datos, siempre hay una posibilidad de que ese sesgo emerja en las respuestas", dice Manchón.

Y continúa: "Entonces, es muy importante que nos aseguremos que estos sistemas, cuando tomen decisiones, cuando hagan pseudo-razonamientos para llegar a la solución del problema que le estemos planteando, no solo nos den una solución, sino que nos aseguremos de que el cómo han llegado a esa solución esté alineado con nuestros valores. La procedencia de los datos, el uso ético de esos datos, la privacidad, la veracidad... Intentamos crear herramientas para asegurarnos de que haya transparencia, control y que se haga todo de manera muy segura".

Aparece en la conversación el problema de la información falsa que está plagando internet: "Es uno de los retos. Es cierto que la inteligencia artificial generativa puede hacer que actores con malas intenciones puedan crear noticias, imágenes o vídeos muy veraces, que parezcan muy reales, de cosas que no son ciertas. Pero, al mismo tiempo, puede facilitar las herramientas para detectar la información falsa, seleccionar y darte un nivel de confianza sobre la veracidad o la credibilidad de lo que quiera que estés viendo o escuchando".

"Google tiene equipos destinados a imaginarnos el mal que se podría hacer con una herramienta. En algunos casos, se ha decidido no lanzar esa herramienta o no publicar ese artículo porque no teníamos garantías de que no se utilizara para algo malo o poco ético", confiesa Pilar Manchón.

La extinción humana

Eventualmente, conocemos escritos o manifiestos firmados por gente que ha estado al frente de la investigación de la inteligencia artificial advirtiendo de que si esto avanza fuera de control, puede llevar a la extinción humana. ¿Contempla esto la directora senior de estrategia de investigación de Google Research? "Yo lo contemplo no en el sentido de las películas de ciencia ficción donde se va a despertar un día la inteligencia artificial y nos va a esclavizar a todos, sino más bien en el sentido, me vas a perdonar, de la estupidez humana. La herramienta puede tener un impacto global si la utilizamos mal a propósito o por estupidez. Desde Google estamos jugando un papel fundamental no solamente en avanzar y progresar en la inteligencia artificial, democratizar su acceso a nivel global, sino en concienciar a todo el mundo de que es necesario hacerlo con ambición, pero de manera muy responsable. Es más importante hacerlo bien que hacerlo rápido".

El mayor reto que afrontamos como humanidad es el cambio climático. ¿La inteligencia artificial puede ayudarnos a parar o revertir el cambio climático de alguna manera? Pilar Manchón responde tajante: "Sí. Tenemos muchísimos proyectos que están seleccionando cuáles son esos problemas generados por el hombre o no donde se puede tener un impacto, donde podemos preservar la vida humana, la vida animal, evitar emisiones, optimizar el uso de la energía e incluso usar la inteligencia artificial para el descubrimiento de nuevos materiales. Vamos a avanzar muchísimo de aquí a 5 años. No he encontrado a ningún científico que se niegue a utilizar la inteligencia artificial".

¿La inteligencia artificial generativa puede hacernos reír con humor creado por ella? "Bueno, los chistes que he visto hasta ahora muy graciosos no son", responde Pilar mientras ríe.

Chatbots, Silicon Valley y aislamiento

¿Hacia dónde van los chatbots? "En Google, ahora mismo lo que más nos interesa es hacer entidades inteligentes que sean útiles, que te acompañen, que te ayuden, que multipliquen tu capacidad de hacer cosas, que te generen confianza, que sean beneficiosas ya sea en tu parte profesional o en tu parte personal. Luego hay otra parte más lúdica y eso siempre va a estar ahí, pero creo que ahora nuestra prioridad es hacer que sea útil, eficiente y que la podamos adoptar con cierta confianza", responde Manchón.

Silicon Valley es una burbuja, concede Pilar. "Hay cosas positivas y otras no. Hay una concentración de talento global de todos los sitios del mundo buscando dónde está la próxima frontera. En ese sentido es la cocina perfecta. Pero en otro sentido, hay una gente muy especial que no es el ciudadano medio normal y, a veces, es poco realista pensar que las cosas que ellos piensan que son necesarias sean las cosas que el ciudadano medio del mundo considera necesarias. Por eso estamos haciendo tantos esfuerzos para democratizar el acceso, para que la gente tenga voz y voto y que esas necesidades se pongan de manifiesto incluso si en Silicon Valley no son fáciles de detectar".

A veces, los aspectos de los que se habla en Silicon Valley están muy centrados en las necesidades y las costumbres de la sociedad norteamericana. Allí están preocupados por el aislamiento que puede provocar la inteligencia artificial. Para Pilar esta preocupación no la ve en España: "En España siempre vamos a tomar tapas y cervecitas independientemente de qué inteligencia artificial haya. La cultura española es una cultura social. Nos gusta estar, conocer, charlar con gente, la espontaneidad. La forma de aplicar la inteligencia artificial no es para sustituir el contacto humano, sino para facilitar que tengamos más tiempo para tener más contacto".

"De la misma manera que la inteligencia artificial puede mitigar esa sensación de soledad con más individualismo y dependencia, también puede ayudar a hacer lo contrario. Imagínate que eres una persona que no socializa porque eres un poco raro, porque no sabes cómo gestionar las cosas, porque eres inseguro o porque te da miedo relacionarte con los demás. Entonces, todo esto de tener a alguien que te ayude a desenvolverte de otra manera y que te ayude a tener confianza. Hay algunas startups que están desarrollando basándose en modelos de lenguaje terapeutas que te ayuden con cualquier reto psicológico. Podemos llegar a tener psicólogos no humanos", nos cuenta Pilar Manchón.

Víctor Olazábal

Víctor Olazábal

Subdirector de Hora 25. Antes fue corresponsal en India para diversos medios españoles. Especializado...

 
  • Cadena SER

  •  
Programación
Cadena SER

Hoy por Hoy

Àngels Barceló

Comparte

Compartir desde el minuto: 00:00