Chat GPT está revolucionando internet. Es un programa que está cambiando —o ya lo ha hecho— nuestra manera de relacionarnos con las inteligencias artificiales y es el vivo ejemplo de cómo la tecnología creada por humanos empieza a superarnos. Hora 25 debate con expertos sobre las oportunidades que genera pero también de los vacíos legales que provoca y cómo está reaccionando, por ejemplo, el mundo de la docencia ante estos cambios. Arán Oliveras estudia en un instituto de Girona Bachillerato Internacional y utiliza Chat GPT a diario: «Lo uso tanto para entretenimiento como para el instituto, para responderme dudas. Por ejemplo, estás en clase y te surgen dudas y así no tienes que cortar al profe», cuenta. Sabe que la herramienta «muchas veces se equivoca y tienes que contrastar lo que dice» y confiesa que ha hecho trabajos con inteligencia artificial pero que nunca los ha llegado a entregar. Ese es uno de los muchos miedos que tiene la comunidad educativa respecto a chat GTP: que la máquina comience a hacer los trabajos con tanta perfección que sean indistinguibles a los hechos por un humano. Hace unos días, el diario El País pidió a algunos profesores de Aragón que corrigieran el examen de Historia de la EVAU que había hecho el chat GPT: «El lenguaje era muy correcto, muy formal, no había faltas de ortografía, muy directo... pero le faltaban matices sobre todo cuando había que generar un texto y relacionarlo con la historia», explica Iván Heredia y coincide su compañera Susana Lozano. Ambos profesores creen que esta herramienta «viene muy bien como un toque de atención para abordar la reforma educativa de verdad y cambiar nuestro trabajo y dejar de pedir el típico resumen de un libro». María del Mar Sánchez es profesora titular de la Facultad de Educación de la Universidad de Murcia y miembro del Grupo de Investigación de Tecnología Educativa. Hace tiempo se dio cuenta del «potencial de la herramienta para el aula». Recuerda que ya había temor de plagio con Wikipedia y también apuesta por un cambio en la educación y en vez de dar clases basadas «en un producto» cree que se debería dedicar más tiempo «a leer allí, a construir, a debatir en el aula...». La abogada y experta en nuevas tecnologías Paloma Llaneza también cree que estas herramientas «cuestionan la manera en la que hemos hecho las cosas» y recuerda que cada vez que hay un avance surgen las preguntas de cómo regularlo: «Yo creo que regular un sistema en el que no vas a poder tener un sistema punitivo detrás es una ridiculez. El día que te pongas a prohibir algo, que tenga sentido. Si no puedes llevarlo a efecto, para qué. Si tu profesor sospecha que has hecho el proyecto fin de grado con Chat GPT, ¡que lo pruebe!» De momento en España no hay mucha prisa por legislar. Las consejerías de Educación están a la expectativa de las posibilidades. En Madrid están analizando la herramienta a través de la formación de los profesores y Cataluña no es partidaria de prohibirla sino de que cada centro decida si la utiliza o no. Un centro concertado en Barcelona, por ejemplo, está usando la herramienta dentro de un proyecto que se llama ¿Qué nos hace humanos? Chat GTP no es infalible. La máquina no piensa como los humanos y todavía podemos hasta liarla. El director de Social Business Analytics en el Instituto de Ingeniería del Conocimiento, Pablo Haya, asegura que «su principal fallo viene de su principal potencia» y recuerda que «son modelos entrenados con millones y millones de textos que desarrollan algoritmos que predicen la siguiente palabra que tiene que poner». Cuando sistema detecta que ha dicho algo erróneo, borra la respuesta y el especialista en tecnología en CadenaSER.com, David Justo, explica que la herramienta se ha desarrollado antes de 2021 y a partir de este año «no sabe nada». Además, le ha pillado en más de un error grave en este tiempo, «sobre todo, los fallos a nivel matemático». Pablo Haya aclara que además «depende de como pongas el texto, puede que te dé distintas respuestas» y está convencido de que entrenar a los humanos para tener las mejores respuestas se convertirá en una profesión en el futuro. No solo hay miedo a que la inteligencia artificial haga un trabajo escolar a un alumno: el verdadero terror es que pueda suplantar a los empleados en determinados sectores: «Yo, como abogada, he estado haciendo consultas y el sistema legal americano lo clava. Las profesiones que dependen mucho de texto se van a la porra», sentencia. La doctora en Ciencias de la Computación y divulgadora de inteligencia artificial Nerea Luis Mingueza no ve descabellado que la inteligencia artificial pueda argumentar una sentencia en el futuro: «No están hechos para razonar pero se requiere que toda esta tecnología se mejore y se oriente para que cumpla con la tarea de argumentación. Si le entrenas con textos legales jurídicos, se disparan las posibilidades de que pueda hacerlo». La abogada Paloma Llaneza cree que estas tecnologías nos llevan hacia una sociedad dividida en dos: «La gente que se va a poder permitir tratar con un ser humano y la que no». Considera que habrá que establecer en qué condiciones tenemos derecho a tratar con un ser humano y lamenta que en «los bancos no se ha ganado esa batalla» y todavía sea difícil acceder a un empleado que no te remita a la web. David Justo cuenta que en EEUU la inteligencia artificial ya es capaz de pedir cita en el peluquero por ti. Pese a lo que se muestra en las películas de ciencia ficción, la inteligencia artificial no tiene por qué volverse en nuestra contra pero sí conviene conocer bien cómo funciona para saber sus carencias. «Las tecnologías lo que hacen es que permean la sociedad aprovechándose de nuestros huecos, nuestra comodidad y nuestra necesidad de estar conectados», apunta Paloma Llaneza. La doctora Nerea Luis Mingueza considera que es un acierto que desde Europa se esté plantando regular la inteligencia artificial con especificidades en determinados sectores y Pablo Haya destaca que, igual que aporta mucha información, «se puede generar desinformación de manera bastante sencilla». David Justo recuerda que «está para apoyarnos, tanto si queremos ser buenos como si no: lo mismo nos hará una dieta saludable o malware».