nº 1.005 - 27 de marzo de 2024
La Inteligencia Artificial llega a nuestros tribunales
Fernando Gascón Inchausti. Catedrático de Derecho Procesal y Consultant en Herbert Smith Freehills Spain LLP
Antes de que la UE haya logrado aprobar su propia ley de inteligencia artificial, nuestro legislador sienta las bases para aprovechar sus ventajas y evitar sus peligros
La garantía esencial ha de ser la existencia de un control humano efectivo, que permita revertir las actuaciones procesales automatizadas que resulten contrarias al ordenamiento
Son muchos los cambios que comporta la entrada en vigor del Real Decreto-ley 6/2023, de 19 de diciembre. Entre ellos se encuentra la posibilidad de que nuestras autoridades judiciales utilicen tecnología basada en herramientas de Inteligencia Artificial. Dentro del contexto general de la «justicia orientada al dato», el art. 35 del RD-ley abre la puerta a la aplicación de técnicas de Inteligencia Artificial para la producción de actuaciones «automatizadas, asistidas y proactivas» y, en general, en apoyo a la función jurisdiccional, a la tramitación de procedimientos judiciales y, en el plano más amplio de la gobernanza, para la definición y ejecución de políticas públicas relativas a la Administración de Justicia.
Antes incluso, pues, de que la UE haya logrado aprobar su propia «ley de Inteligencia Artificial», nuestro legislador ha sentado las bases para aprovechar las ventajas de estas herramientas y, en la medida de lo posible, para evitar ciertos peligros: la mejor forma de hacerlo, desde luego, es regulando el fenómeno.
En un primer nivel se encuentran las llamadas actuaciones automatizadas (art. 56 RD-ley), que son aquellas producidas por un sistema informático programado a tal fin «sin necesidad de intervención humana en cada caso singular» y que están pensadas para aplicarse a actuaciones de trámite o resolutorias simples. A título de ejemplo se menciona el numerado o paginado de los expedientes judiciales (que ya son electrónicos por defecto), la generación de certificados, la comprobación de representaciones o la declaración de firmeza de una resolución (transcurrido el plazo de recurso sin que en el expediente electrónico se haya registrado su interposición).
Dentro de este grupo de las actuaciones automatizadas se incluyen las actuaciones proactivas, que son aquellas que se autoinician por el sistema informático, sin necesidad siquiera de que ningún juez, letrado de la administración de justicia o personal de la oficina judicial las desencadene: basta, a tal fin, con la información que ya conste en el expediente electrónico para que resulte jurídicamente procedente y técnicamente posible proceder a la actuación de forma automatizada. El precepto menciona expresamente la generación de avisos, pero en realidad la autoiniciación depende del tipo de actuación y de la programación informática que pueda efectuarse partiendo de los datos que consten en un expediente (así, por seguir con el ejemplo anterior, es posible que una declaración de firmeza se genere de forma proactiva por el sistema a partir de los datos que constan en el expediente electrónico).
Se abre, además, la puerta a la posibilidad de que el desencadenamiento automático de una actuación procesal se produzca a partir de información que conste en un procedimiento de una Administración Pública (no judicial, por tanto), en la medida en que sea jurídicamente procedente y técnicamente posible (para lo cual sería necesaria la compatibilidad de los sistemas informáticos implicados).
Tres garantías o salvaguardas
Las actuaciones automatizadas (proactivas o no) aspiran a optimizar la gestión interna del trabajo en las oficinas judiciales: la regulación parece estar pensando en automatizar trámites de tipo más bien burocrático. Lo cierto, sin embargo, es que cualquier actuación procesal puede acabar produciendo efectos para las partes. Por eso, se prevén tres garantías o salvaguardas:
En primer término, las actuaciones automatizadas y, en su caso, proactivas, han de poder identificarse como tales, han de poder ser trazadas y justificadas.
En segundo término, ha de ser posible realizar esas mismas actuaciones de forma no automatizada.
Finalmente, ha de ser posible deshabilitar, revertir o dejar sin efecto las actuaciones automatizadas ya producidas.
Se trata, en el fondo, de tres enfoques para un mismo objetivo, la existencia de un control humano efectivo: hace falta que las actuaciones automatizadas se identifiquen como tales para que los sujetos afectados por ellas puedan tener este dato en consideración a la hora de reaccionar frente a ellas; y ha de ser posible la reversión y, en su caso, su sustitución en forma no automatizada, algo que, en principio, habrá de promoverse utilizando los medios de impugnación previstos en función del tipo de actuación de que se trate.
Las actuaciones asistidas suponen un paso más en el aprovechamiento de las herramientas de Inteligencia Artificial, pues en ellas el sistema informático genera un borrador total o parcial de documento complejo, que puede ser producido por algoritmos y que se basa en los datos de los que dispone el propio sistema; ese borrador, a su vez, puede constituir «fundamento o apoyo» de una resolución judicial o procesal (art. 57 RDL).
La previsión es tan amplia que en ella puede caber, por poner algún ejemplo, un (borrador de) decreto del letrado de la administración de justicia sobreseyendo un proceso por el desistimiento de la parte actora antes del emplazamiento del demandado, un (borrador de) decreto del letrado de la administración de justicia requiriendo de pago al deudor en un proceso monitorio, un (borrador de) decreto del fiscal acordando la remisión de una querella a la autoridad judicial competente o un (borrador de) sentencia estimatoria de una demanda de tutela sumaria de la posesión en virtud del art. 41 LH si no consta en el expediente el escrito de contestación del demandado alegando alguno de los motivos de oposición a que se refiere el art. 444.2 LEC.
En rigor, pues, cualquier resolución podría pasar por el estadio previo del borrador generado de forma algorítmica, siempre que el sistema cuente con los datos que el propio algoritmo necesita para producirlo: y esto será tanto más factible cuanto mayor sea la «orientación al dato» de los documentos que conforman el expediente judicial electrónico (especialmente si se articulan a través de formularios).
El salto cualitativo es evidente, de ahí que la garantía del control humano efectivo se refuerce. En primer término, estos borradores no podrán generarse de forma proactiva, a pesar de que fuera técnicamente posible. El borrador, además, ha de ser «editable», esto es, ha de poder ser libre y enteramente modificado por el usuario. Y será necesaria, en todo caso, la validación del juez, del fiscal o del letrado de la administración de justicia (según proceda) para que el borrador adquiera la condición de resolución judicial o procesal.
Estas previsiones no eliminan el riesgo −tal vez la tentación− de que la autoridad competente tienda a validar sin mayor análisis los borradores generados algorítmicamente, pero en todo caso vincula las resoluciones a personas determinadas, no a «sistemas informáticos» de los que nadie se acabaría haciendo responsable a la postre. Forma parte de la esfera de responsabilidad (jurídica y deontológica) de los «usuarios» revisar con rigor los borradores antes de validarlos, de forma análoga a los ejemplos de abogados sancionados por aportar documentos elaborados con Inteligencia Artificial generativa que incorporaban resoluciones inexistentes.
Es pronto para vaticinar el grado de utilización de estas previsiones legales. Es necesario, antes que nada, disponer de programas informáticos y de algoritmos robustos, que resulten suficientemente fiables, pues de lo contrario las impugnaciones y las subsanaciones absorberán más energía procesal de la que ahorraría la automatización de las actuaciones. Será igualmente necesario reforzar la formación del personal al servicio de la administración de justicia. Y, por supuesto, los abogados deben igualmente estar en condiciones de reaccionar ante los posibles «abusos algorítmicos», para lo que necesitarán formación y recursos adicionales (con los que hacer frente, entre otros extremos, al coste de expertos que les asesoren). ■