"Cuando interactúas con un chatbot, tienen que decirte que es un chat hecho por IA, que no estás con una personar"
Iñaki Suárez, director de tecnología de BAIC, nos habla del código ético y las obligaciones para velar por una IA "en la que las personas tengan la última palabra"
"ChatGPT es como un cuñado, que sabe de todo, aunque luego no sepa, pero siempre te va a responder"
Vitoria-Gasteiz
La Inteligencia Artificial es una herramienta que puede ser muy útil, aunque detrás, al final del proceso, tiene que haber una persona "que le dé su visto bueno". Lo dice Iñaki Suárez, director de tecnología de BAIC, el Centro Vasco de Inteligencia Artificial, que reclama una IA ética, cuya producción esté marcada, para que se sepa que es sintética. También, que sea supervisada por las personas, para evitar alucinaciones. "Yo siempre digo que es como un cuñado, que sabe de todo, aunque luego realmente no lo sepa, pero siempre te va a dar una respuesta".
BAIC es el Centro Vasco de Inteligencia Artificial, una organización que coordina todo el ecosistema de la Inteligencia Artificial en Euskadi para su implementación de una manera segura y ordenada. En la actualidad, en Euskadi hay más de 90 proveedores trabajando en este campo, algunos de ellos desde hace décadas. Suárez explica que es ahora "cuando la IA ha llegado como un tsunami a la sociedad porque no es necesario programar para que nos haga las tareas; podemos utilizar el lenguaje natural".
Muchas aplicaciones en periodismo
Muchas de las empresas en BAIC están desarrollando aplicaciones de uso para los periodistas, cuenta. "Se usan modelos para transcribir entrevistas, para resumir ruedas de prensa, para ayudar a la redacción de borradores, para generar versiones de una misma noticia para distintos canales o distintos públicos objetivos. También hay muchísima innovación en torno a la voz: locutores sintéticos o ahí está el documental de Kepa Junkera, al que le clonaron la voz para poder volver a escuchar su voz después de su enfermedad. Y, por debajo, también hay otra capa, menos visible, pero no menos importante, de análisis masivo de datos, detección de bulos, herramientas que ordenan archivos, etc.", detalla Suárez.
Para el director de tecnología de BAIC, todas estas herramientas "debemos verlas como una ayuda y no como un sustituto de personas. Tiene que ser nuestro copiloto, que nos ayude con acciones repetitivas, y así nosotros podemos centrarnos en acciones más creativas o que aporten más valor. Reconoce que la IA "te puede ayudar mucho para no partir de un lienzo en blanco", pero insiste en que tiene que haber una persona "que le dé su estilo, su sello personal y que le dé su visto bueno".
"Un código para usar la IA para el bien"
En BAIC se han dotado de un código ético, conscientes de que la IA es una herramienta, "pero por su rápida adopción puede que se utilice para el bien o para el mal. Nos pusimos de acuerdo y dijimos: vamos a utilizarlo para el bien, vamos a hacer que sea una IA siempre ética". En palabras de Suárez es un código ético "que pone a la persona en el centro, que pide la prevención del daño, la equidad y la transparencia".
Más allá del código y con posterioridad a este, el Reglamento europeo que regula la IA marca varias obligaciones a las empresas. "Al final, lo que se busca es que todo el contenido científico generado por Inteligencia Artificial, ya sean imágenes, vídeos o texto, sea marcado de alguna manera para que las personas sepan que efectivamente este contenido no lo ha hecho una persona y no de lugar a engaño. Esto es especialmente importante en los vídeos que estamos viendo como deepfakes, también en los chatbots. Cuando tú interaccionas con un chatbot, es importante decirle a la persona que es un chat hecho por IA, que no está interactuando con una persona".
Supervisar para evitar alucinaciones
Suárez destaca asimismo la necesidad de que en el periodismo haya "una persona que supervise" el texto generado por una IA. "Los modelos de lenguaje LLM generan lo que llamamos alucinaciones, es decir, muchas veces nos dicen cosas que nos pueden parecer creíbles, pero no son veraces y cuando estamos haciendo una labor de información al público general debemos ser especialmente cuidadosos para no generar bulos o falsas noticias".
"La verdad es que se está trabajando mucho últimamente precisamente en reducir ese tipo de alucinaciones, pero yo siempre digo que es como un cuñado, que sabe de todo, aunque luego realmente no lo sepa, pero siempre te va a dar una respuesta, aunque no sea la correcta".
Iñaki Suárez aconseja a los periodistas y a la población, en general, que usa estos sistemas, "contrastar siempre la información, sobre todo cuando consultamos información en modelos de LLM o le mandamos a hacer alguna tarea".
Eva Domaika
Jefa de informativos en Cadena SER Vitoria. Presenta...Jefa de informativos en Cadena SER Vitoria. Presenta el informativo diario ‘La ventana Euskadi’. Si quieres contactar conmigo, puedes escribirme a edomaica@prisaradio.com.