Gastro SER
Gastro

El 30% de las 'fake news' de internet tiene que ver con la alimentación: "Si lo dice ChatGPT, nos lo creemos"

Un experto asegura que "no se sabe cómo aprende la IA" por su "modelo de caja negra", por lo que recomienda cultivar el "espíritu crítico"

Aplicaciones de IA. / Anna Barclay

Madrid

El 30% de las fake news de internet tiene que ver con la alimentación, según un informe elaborado por la consultora Llorente y Cuenca (LLYC) y presentado este martes por Luis Martín en la ponencia Fake Food, cómo los bulos se cuelan en nuestra dieta, en Madrid Fusión.

Más información

"Estas noticias circulan siete veces más rápido que el resto de las noticias porque apelan a emociones como el miedo y, además, son mensajes muy simples", ha explicado Martín, que es director de Digital Business y de Soluciones de IA en LLYC

El experto ha asegurado que muchas de esas noticias se basan en "medias verdades" y, en ocasiones, se amparan en la fórmula "según un estudio", lo cual les otorga verosimilitud, pero luego no incorporan los detalles del mismo y apelan, sobre todo, a cuestiones emocionales.

Leche, azúcar y carne roja

Entre los ejemplos que ha citado el experto de Llorente y Cuenca destaca el de la leche, con frases como "no estamos preparados para procesarla", cuando la realidad es que solo el 2-3% de la población tiene intolerancia a la leche y un 10-15% a la lactosa (aunque el porcentaje en Asia sea mayor).

"Sí hay muchos estudios, sin embargo, que vinculan la leche con beneficios para prevenir enfermedades como la osteoporosis", ha recalcado.

Martín también ha citado el ejemplo del azúcar, muchas veces calificado como "veneno", o el de la carne roja, que no necesariamente "inflama" o es siempre "procesada".

"Si lo dice ChatGPT, nos lo creemos"

"Al final lo llevamos a de una discusión científica a una discusión moral en la que lo natural es bueno y lo procesado es malo", ha lamentado. "La fermentación o la ultrapasteurización también son procesos, pero son buenos para la salud".

Gastro SER | José Carlos Capel y el fin de la crítica gastronómica

El experto de Llorente y Cuenca ha señalado que "la IA produce contenidos a escala y los personaliza a una gran velocidad". No solo eso: "Le damos mucha autoridad a la IA. Si lo dice ChatGPT, nos lo creemos. Como cuando decíamos que si lo ha dicho el Telediario, es verdad".

Pero lo que mucha gente ignora, según Martín, es que, en realidad, la inteligencia artificial "tiene sesgo" y, desafortunadamente, sabemos que cuando alguien acepta algo como verdad, luego es muy difícil que cambie de opinión.

Martín ha asegurado que, si antes la opinión pública la configuraban los medios y las redes, "ahora el campo de batalla va a ser la IA", por lo que le ha recomendado a las marcas que monitoricen qué dicen de ellas Gemini o ChatGPT.

El antídoto de la desinformación

"Hay que ser consciente de que la IA tiene sesgo y de que, en esta era, la confianza no se defiende reaccionando. Hay que anticiparse", ha recalcado Martín.

Como antídoto contra la desinformación, el experto de LLYC ha recomendado "cultivar el espíritu crítico" y "no delegar"la labor cognitiva a la IA". Pero ha descartado que puede acotarse o regularse el funcionamiento de la IA porque las principales empresas están fuera del marco jurídico europeo.

Luis Martín, en el espacio Dreams de Madrid Fusión.

"No podemos regular las fuentes en las que han sido educados esos motores y tampoco se sabe cómo buscan información o cómo se produce su aprendizaje. Son modelo de caja negra o black box. Saberlo es técnicamente imposible".

Martín ha reconocido que a su hijo le recomienda "que no se fíe de nada". Pero también ha lanzado un mensaje positivo: "La IA puede ser tremendamente útil en la gastronomía. Tiene tantos sesgos que pelotear con ella puede ser estimulante y fomentar la creatividad".

Carlos G. Cano

Periodista de Barcelona especializado en gastronomía...