La inteligencia artificial (IA) está transformando la Justicia, ofreciendo ventajas como agilizar procesos y mejorar la gestión de la información, pero también implica riesgos significativos, como fallos técnicos o sesgos en los datos, que pueden afectar la igualdad ante la ley, el derecho de defensa, la protección de datos, la transparencia judicial y otros derechos fundamentales, incluidos el juicio justo, la presunción de inocencia y la no discriminación.
En consecuencia, su empleo plantea problemas éticos y prácticos de gran relevancia. Por ello, el Reglamento (UE) 2024/1689 sobre inteligencia artificial (RIA) considera de alto riesgo los sistemas diseñados para asistir a autoridades judiciales o administrativas en la investigación, interpretación del Derecho y aplicación de la ley a casos concretos (Considerando 40), señalando que estas herramientas pueden apoyar, pero no sustituir, la decisión de los jueces, que debe permanecer en todo caso exclusivamente humana. En la misma línea, el artículo 22.1º del Reglamento General de Protección de Datos (RGPD) reconoce que toda persona tiene derecho, salvo excepciones, a no ser sometida a decisiones basadas únicamente en procesos automatizados, incluida la elaboración de perfiles, cuando estas decisiones tengan efectos jurídicos sobre ella o le afecten de manera significativa.
El uso de IA sin control humano puede provocar errores graves. En la Justicia española ya se han registrado “alucinaciones”, esto es, fallos judiciales que incluyen referencias jurídicas inexistentes. De hecho, un abogado de Melilla presentó una queja ante el Consejo General del Poder Judicial (CGPJ) después de que el Juzgado de Instrucción núm. 5 de Ceuta dictara un auto basado en un escrito del Ministerio Fiscal que citaba jurisprudencia del Tribunal Supremo generada por IA y que no existía.
Con la finalidad de prevenir tales riesgos, el pasado 30 de enero se publicó en el BOE el Acuerdo del Pleno del CGPJ por el que se aprueba la Instrucción 2/26, relativa al uso de sistemas de inteligencia artificial en la Administración de Justicia. Dicha Instrucción tiene por objeto dotar a jueces y magistrados de un marco normativo claro y sistemático para su utilización, conforme a la normativa nacional y europea, y garantizar en todo caso la independencia judicial.
El documento enfatiza que la IA no puede operar al margen del marco legal vigente, estableciendo que su uso debe ajustarse siempre a la Ley Orgánica del Poder Judicial, sus reglamentos, las leyes procesales y la Política de uso de IA en la Administración de Justicia aprobada por el Comité Técnico Estatal de la Administración Judicial Electrónica (CTEAJE).
La Instrucción persigue que la IA en la Administración de Justicia tenga un carácter meramente instrumental y de apoyo, sin que pueda en ningún caso sustituir al juez en el ejercicio de la función jurisdiccional. A tal fin, determina los tipos de sistemas de IA que pueden emplearse y las condiciones de su utilización, fija los principios éticos y jurídicos que han de respetarse, y delimita las actuaciones permitidas, así como aquellas que quedan expresamente prohibidas.
De conformidad con la Instrucción del CGPJ, únicamente podrán emplearse sistemas de IA que operen con distintos niveles de autonomía y capacidad de adaptación, incluidas las herramientas de IA generativa destinadas a la creación automatizada de contenidos. En particular, solo podrán utilizarse aquellos sistemas de IA que sean proporcionados o que estén expresamente autorizados por las Administraciones competentes, y que hayan sido previamente validados por el CGPJ. En todo caso, la utilización de tales sistemas queda supeditada a su carácter estrictamente auxiliar y al control humano efectivo.
También establece los principios rectores que han de regir la utilización de herramientas de IA en la Administración de Justicia, a saber: control humano efectivo, que exige que los jueces supervisen de manera real y consciente todos los sistemas de IA, los cuales no pueden tomar decisiones judiciales ni interpretar o aplicar el Derecho de manera autónoma; el principio no sustitución de los jueces, asegurando que la IA solo funcione como apoyo; los principios de responsabilidad e independencia judicial, manteniendo la autonomía y la decisión final en manos del juez; el respeto a los derechos fundamentales, la confidencialidad y la seguridad; y prevención de sesgos algorítmicos.
Para el CGPJ, la IA en la Justicia solo puede emplearse como herramienta de apoyo. Entre los usos permitidos se incluyen la búsqueda y recuperación de información jurídica y procesal, el análisis y organización de documentos, y la elaboración de esquemas, resúmenes o borradores internos, siempre que no tengan carácter decisorio ni sustituyan la redacción personal del juez. Los borradores de resoluciones generados por IA requieren revisión y validación completa por el juez, que mantiene la responsabilidad exclusiva sobre la decisión final.
Queda prohibido el uso de sistemas de IA para la adopción de decisiones judiciales, la valoración de hechos o pruebas, así como para la interpretación o aplicación del Derecho, o para cualquier uso que afecte a la independencia judicial o a la libertad de criterio. Asimismo, se prohíbe el tratamiento de datos especialmente protegidos, el perfilado, las predicciones de comportamiento, la evaluación de riesgos, la clasificación de personas y, en general, cualquier utilización que sustituya la intervención humana en el ejercicio de la función jurisdiccional.
En suma, la Instrucción del CGPJ abre la puerta a un futuro en el que la IA pueda apoyar de manera segura y eficiente la actividad judicial, siempre bajo supervisión humana. Aunque todavía existen limitaciones, como la imposibilidad de que la IA tome decisiones finales, esta regulación sienta las bases para una Justicia más ágil y tecnológicamente avanzada, donde los jueces y magistrados puedan centrarse en la valoración crítica y en la protección de los derechos fundamentales, dejando a la IA tareas de apoyo y gestión de información.


