
La irrupción de la inteligencia artificial en el ámbito jurídico plantea un desafío tan fascinante como complejo: ¿hasta qué punto puede un abogado delegar en una máquina la elaboración de argumentos legales sin incurrir en faltas éticas o procesales? Un caso reciente en el Tribunal Superior de Justicia de Navarra ilumina esta cuestión con nitidez. Un letrado de Pamplona, al redactar una querella utilizando ChatGPT, incluyó por error referencias al Código Penal de Colombia en lugar del español, lo que desató una investigación por posible mala fe procesal. El tribunal, tras analizar el caso, archivó la causa sin imponer sanción alguna, considerando que el error, aunque grave, no constituía un acto deliberado de engaño. Esta decisión no solo deja exento de responsabilidad al abogado, sino que proyecta una advertencia clara: el uso descuidado de tecnologías emergentes en el ejercicio del derecho acarrea implicaciones legales, deontológicas y éticas que no pueden ignorarse.
La controversia comenzó cuando el abogado, en el marco de un procedimiento penal, presentó una querella que reproducía argumentos generados por inteligencia artificial. La parte contraria detectó que el texto citaba el artículo 454B del Código Penal, un precepto inexistente en la legislación española, pero presente en el Código Penal de Colombia. La cita, atribuida erróneamente a la Sala Segunda del Tribunal Supremo, afirmaba que “el que para evitar que se use como medio cognoscitivo durante la investigación, o como medio de prueba en el juicio, oculte, altere o destruya elemento material probatorio” incurriría en responsabilidad penal. Este error, descrito por el propio letrado como “grosero e involuntario”, derivó de un uso inadecuado de ChatGPT, una herramienta que, si bien poderosa, carece de la capacidad de discernir contextos jurisdiccionales con precisión absoluta. La detección de esta inconsistencia por parte de la contraparte llevó a la apertura de una pieza separada para investigar si el abogado había incurrido en mala fe procesal, conforme al artículo 247 de la Ley de Enjuiciamiento Civil, que sanciona el abuso de derecho en los procedimientos judiciales.
El Tribunal Superior de Justicia de Navarra resolvió que no existía evidencia de intencionalidad fraudulenta en la conducta del abogado. La clave de esta decisión radica en varios elementos. En primer lugar, el letrado reconoció el error de inmediato y presentó un escrito de subsanación acompañado de disculpas sinceras. En segundo lugar, los magistrados constataron que el uso de inteligencia artificial no fue sistemático ni deliberado para inducir a error al tribunal. Finalmente, no se identificaron daños concretos a la parte contraria derivados del error en la querella. Estos factores, combinados con la novedad del uso de herramientas de inteligencia artificial en el ámbito jurídico, llevaron al tribunal a archivar la causa sin imponer la sanción pecuniaria que podría haber alcanzado los 6.000 euros.
Este caso pone de manifiesto una tensión inherente al uso de la inteligencia artificial en el ejercicio de la abogacía: la necesidad de equilibrar la eficiencia que ofrecen estas herramientas con la responsabilidad profesional de garantizar la precisión y pertinencia de los argumentos jurídicos. El documento “Guide on the use of Artificial Intelligence-based tools by lawyers and law firms in the EU”, subraya que la supervisión humana efectiva es una condición indispensable para el uso responsable de estas tecnologías en el ámbito de la profesión de los abogados. La inteligencia artificial, por avanzada que sea, no sustituye el juicio crítico del abogado, cuya formación y experiencia son esenciales para validar la información generada por algoritmos. En este sentido, el error del letrado navarro no radica en haber utilizado ChatGPT, sino en no haber verificado la exactitud de los contenidos generados, una omisión que, aunque imprudente, no equivale a una intención maliciosa.
El sentido de la decisión del tribunal navarro trasciende el caso particular y establece un precedente relevante para la profesión jurídica en un contexto de transformación tecnológica. Al archivar la causa, los magistrados no solo exculpan al abogado, sino que también emiten una advertencia sobre las implicaciones del uso descuidado de la inteligencia artificial. La resolución destaca que la revisión y validación de los documentos jurídicos sigue siendo una responsabilidad intransferible del abogado, independientemente de las herramientas empleadas. Esta postura refleja una visión pragmática: la tecnología es un aliado valioso, pero su uso debe estar subordinado a un escrutinio riguroso que garantice el cumplimiento normativo y ético.
Debe tenerse presente igualmente que resolución también invita a reflexionar sobre el marco ético que debe regir la integración de la inteligencia artificial en el derecho. La abogacía, como profesión vinculada al servicio de la justicia, exige un estándar de diligencia que trasciende la mera corrección técnica. La inclusión de una cita legal errónea, como la del Código Penal colombiano, no solo compromete la credibilidad del abogado, sino que pone en riesgo la confianza en el sistema judicial en su conjunto. Sin embargo, el tribunal navarro acertó al distinguir entre imprudencia y mala fe. La primera, como ocurrió en este caso, puede derivar de un error humano en el manejo de una herramienta novedosa; la segunda implica una voluntad deliberada de engañar, lo cual no se demostró en este supuesto.
La evolución del derecho en la era digital exige un replanteamiento de las competencias profesionales de los abogados. La inteligencia artificial no es un enemigo, sino un instrumento que, bien utilizado, puede optimizar la práctica jurídica. Sin embargo, su adopción debe ir acompañada de una formación adecuada y de un compromiso ético con la verificación de los resultados. El caso de Pamplona demuestra que los tribunales están dispuestos a mostrar cierta indulgencia ante errores iniciales en el uso de estas tecnologías, especialmente en un contexto en el que su integración es aún incipiente. No obstante, esta flexibilidad no debe interpretarse como una carta blanca para el descuido. Los abogados deben asumir la responsabilidad de supervisar las herramientas que emplean, asegurándose de que sus productos se ajusten a las normas aplicables y al contexto jurisdiccional pertinente.
El archivo de la investigación por mala fe procesal en este caso no implica una validación incondicional del uso de la inteligencia artificial en el derecho. Por el contrario, subraya la necesidad de un enfoque crítico y responsable hacia estas tecnologías. La resolución del Tribunal Superior de Justicia de Navarra actúa como un recordatorio de que el progreso tecnológico no exime a los profesionales del derecho de sus obligaciones deontológicas. En un mundo donde las máquinas pueden generar textos legales en segundos, la supervisión humana sigue siendo el pilar que sostiene la integridad del sistema judicial. La imprudencia, aunque no sancionable en este caso, debe servir como lección para que los abogados ejerzan su profesión con la diligencia que exige un Estado de Derecho.