Una especialista en IA lanza una advertencia sobre la sanción a un abogado por citar sentencias falsas: "Es como multarnos por caer en un socavón"
La abogada Yurena Carrillo subraya la necesidad de "revisar dónde están los fallos" de las fuentes oficiales de la Justicia y las dificultades para trabajar con IA

Yurena Carillo, abogada especialista en inteligencia artificial: "Trabajamos en un sistemas de riesgos; falta seguridad"
El código iframe se ha copiado en el portapapeles
Santa Cruz de Tenerife
La multa interpuesta a un abogado por citar cuarenta y ocho sentencias falsas localizadas supuestamente por la inteligencia artificial ha abierto un amplio debate sobre el uso y empleo de esta herramienta en los contextos profesionales y, en particular, en el mundo de la justicia. El Tribunal Superior de Justicia de Canarias ha multado con 420 a un abogado por utilizar como argumentos jurídicos estas supuestas sentencias al considerar el TSJC que "es una actuación contraria al deber de veracidad y a las reglas de buena fe con abuso del servicio público de la Justicia".

Dice el auto del TSJC firmado por el magistrado Juan Luis Lorenzo Bragados, Antonio Doreste y Carla Bellini que de las cincuenta y dos referencias que contiene el recurso, son tan solo correctas cuatro, es decir, "son fruto de lo que se ha dado en denominar «alucinaciones» de la inteligencia artificial y fueron incorporadas al escrito sin ser revisadas ni verificadas por el letrado que lo firmó", dice el auto.
Aún así, la sentencia insiste en señalar que "la Sala no desconoce ni desdeña el potencial que las herramientas de inteligencia artificial ofrecen para las profesiones jurídicas y, de manera específica, para los abogados" aunque cita y recuerda que en el Libro Blanco sobre Inteligencia Artificial y Abogacía, "la IA constituye un complemento y no un sustituto del trabajo de abogacía dado que requiere una especial supervisión humana".
Una multa "ejemplarizante"
La resolución subraya la "ejemplaridad" de la multa interpuesta a este abogado al considerar que es "la mitad del coste aprocimado de una suscripción anual a una herramienta de inteligencia artificial específicamente jurídica disponible". Además, insisten en el TSJC que "probablemente hubiera evitado el lamentable resultado que ahora se enjuicia".
Sin embargo, la confianza depositada por la Sala de lo Penal del Tribunal Superior de Justicia de Canarias contrasta con la que la abogada especialista en ciberdelitos, Yurena Carrillo, tiene en esta clase de herramientas. De hecho, sostiene que "las base de datos profesionales no dejan de fallar, aunque pueden ser más sutiles", ha dicho Carrillo en Hoy por Hoy Canarias. "Las bases de datos que más han fallado son las profesionales", dice Carrillo quien añade que "trabajamos en un sistema de riesgos; lo que falta es seguridad y tenemos dificultades para acceder a la jurisprudencia en su conjunto incluso de las fuentes oficiales a la que alude la sala". Lamenta la abogada que "si no se aproximan a nuestra realidad, estamos matando moscas a cañonazos".
La reacción de la sala en el caso de Canarias no ha sido la misma que en territorios como Ceuta o Navarra. En estos casos, sus tribunales han decidido permitir la "rectificación" como consecuencia de resultados que son "falsos" generados por herramientas de inteligencia artificial de pago como ChatGPT5. "En Melilla se pudo rectificar y se cuestionó hasta qué punto se podía hacer", reflexiona Carrillo quien coincide con la Sala del TSJC en que "se debe cotejar para tratar de minimizar los errores" aunque incide en una cuestionarse "cuál es la responsabilidad del fabricante y la limitación de la Sala a la sanción sin abrir un procedimiento de fraude cibertecnológico".





