Un médico advierte del gran problema de fondo de compartir tus analíticas con la inteligencia artificial
El uso de inteligencia artificial está bien, siempre y cuando lo acompañes más tarde del diagnóstico profesional de un médico

Un médico explica el gran problema de fondo de compartir tus analíticas con la inteligencia artificial
El código iframe se ha copiado en el portapapeles
Madrid
La inteligencia artificial está cada vez más presente en nuestro día a día. La usamos para sintetizar cualquier concepto que a priori pueda ser demasiado complejo para nosotros, como pueden ser unas instrucciones o un requerimiento legal, pero también para cosas más triviales como redactar un texto para un correo electrónico o generar una imagen de cualquier concepto que nos haya surgido en la mente. De hecho, cada vez son más las personas que recurren a plataformas como ChatGPT o Gemini para consultas habituales antes que a los buscadores tradicionales para resolver sus problemas.
Más información
Más aún después de que estas herramientas te permitan compartir tus propias fotografías, pues te ayudan a resolver temas cotidianos en un pispás. ¿Alguna vez se te ha ocurrido pasarle una multa? ¿Y tus analíticas médicas? En caso de que lo hayas hecho, habrás podido comprobar con tus propios ojos que la inteligencia artificial interpreta dichos documentos y que, en muchísimas ocasiones, lo hace de forma correcta. ¿Y cuál es el problema entonces? ¿Por qué no deberíamos quedarnos únicamente con esa primera interpretación?
La inteligencia artificial lee, no te da un diagnóstico
En declaraciones a El Faro de la Cadena SER, el doctor Fernando Fernández Bueno reconoce que la inteligencia artificial interpreta muy bien los datos que ve reflejados en el documento. Sin embargo, nunca te va a dar un diagnóstico médico como un profesional: "El problema que tenemos es que lee. La inteligencia artificial es un lenguaje que va a interpretar con mis palabras lo que está ocurriendo. Pero lo que está haciendo es interpretar una analítica, no te está dando un diagnóstico".

De ahí que el análisis de la inteligencia artificial pueda acabar liándolo todo todavía más: "Podemos caer en el error de que, al interpretar esa analítica y decírmela con mis palabras, acabe interpretando que tengo el azúcar demasiado elevado en sangre y que acabe pensando que soy diabético cuando a lo mejor me he comido un donut con un café con leche antes de las pruebas y por eso tengo el azúcar tan elevado".
"Es nuestra obligación interpretar"
Por todo ello, y si eres de los que comparten sus analíticas con la inteligencia artificial, hazlo con cautela: "Si la gente no quiere esperar a los resultados y hacer una aproximación a lo que puede estar ocurriendo, no me parece mal, pero la interpretación de esas de esos datos de esas analíticas la hacemos los médicos porque la analítica es una herramienta más del estudio diagnóstico del paciente, a la que luego añadimos la anamnesis que le hacemos. Le hacemos una exploración y le damos un resultado. Un juicio diagnóstico o un juicio diagnóstico de probabilidad".
Porque un valor alto en una analítica no confirma una posible enfermedad: "Eso no quiere decir que el paciente tenga una enfermedad o un problema, sino que en esa analítica hemos tenido algo diferente a la normalidad. Es nuestra obligación interpretar esos resultados en función de los síntomas y signos que tiene el paciente. Al final, la inteligencia artificial lee la analítica, pero también hace falta buscar una interpretación con los signos y los síntomas. Porque yo puedo ver si el paciente está amarillo, si tiene las mucosas secas o no mueve bien un brazo. Entonces, hay que interpretar toda esa información y realizar un diagnóstico".

David Justo
(Astrabudua, 1991) Periodista especializado en tecnología que aborda la vida digital desde otro punto...




