
El Colegio de la Abogacía de Madrid (ICAM) ha publicado la ‘Guía de Buenas Prácticas para el Uso de la Inteligencia Artificial en la Abogacía’, un «hito pionero» en el ámbito jurídico español que marca el camino sentando las bases para «un uso ético, responsable y jurídicamente seguro de esta tecnología en la profesión legal».
Partiendo de la base de los principios y recomendaciones de los principales organismos europeos y nacionales en materia de inteligencia artificial y protección de datos, la publicación aborda los principales retos que plantea esta tecnología en el ámbito legal: desde la protección de datos y la explicabilidad de los algoritmos hasta la necesidad de formación continua y supervisión humana.
El decano del Colegio, Eugenio Ribón, ha considerado que «la abogacía no debe limitarse a adaptarse al cambio sino debe liderarlo», por lo que desde el ICAM quieren ofrecer a «la profesión una herramienta práctica y rigurosa para aprovechar las ventajas de la inteligencia artificial sin comprometer los principios esenciales de la abogacía: la confidencialidad, el juicio profesional y la defensa de los derechos fundamentales».
La guía, que traslada a la práctica las recomendaciones del nuevo marco regulador europeo y nacional en materia de IA, ha sido coordinada por Mabel Klimt, diputada de la Junta de Gobierno responsable de innovación, tecnología y cultura, han informado desde el ICAM en un comunicado.
«Usar la IA sin miedo, pero con criterio: eso es lo que propone esta guía. No se trata de frenar la innovación, sino de acompañarla con criterios éticos, herramientas claras y pautas jurídicas que nos permitan integrar esta tecnología de forma segura, transparente y eficaz. Queremos que cada abogado, independientemente del tamaño de su despacho o de su nivel de conocimiento técnico, cuente con un marco práctico que le ayude a tomar decisiones informadas y responsables», ha señalado.
A lo largo de seis capítulos, la publicación ofrece un marco práctico para incorporar la inteligencia artificial al trabajo jurídico sin comprometer los principios esenciales de la profesión.
Herramienta de apoyo
Su punto de partida es claro: «la tecnología es una herramienta de apoyo, pero no reemplaza ni debe reemplazar al abogado ni a su criterio profesional. La abogacía debe mantener siempre la supervisión, el juicio crítico y una diligencia reforzada en el uso de estas herramientas», según se afirma en la guía
En su elaboración han colaborado especialistas como Santiago Mediano (presidente de la sección ICAM de Robótica, IA y Realidad Virtual y Aumentada), Sara Molina y José Ramón Moratalla (copresidentes de la sección ICAM de Innovación y Abogacía), Alejandro Touriño (presidente de la Sección de TIC del ICAM), Jesús María Boccio, Agustín Born, Noemí Brito, Carlos Fernández, Javier Fernández-Lasquetty, Rodrigo González Ruíz, Antonio Muñoz Vico, María Pardo de Vera, Carolina Pina y Teresa Rodríguez de las Heras.
Entre las conclusiones, el texto sostiene que el uso de la IA en la abogacía debe ser proporcional y justificado, aplicarse únicamente cuando aporte valor real al cliente y mantenerse siempre bajo control humano. También subraya la necesidad de realizar evaluaciones de riesgo, asegurar la trazabilidad de los procesos, garantizar la protección de datos y la confidencialidad, y documentar el uso de estas herramientas para poder justificarlo ante clientes o tribunales.
Además, advierte de la importancia de preservar los derechos fundamentales y prevenir sesgos o discriminaciones algorítmicas mediante revisiones periódicas y diversidad en los equipos que supervisan o desarrollan las herramientas.
Un nuevo estándar de responsabilidad profesional
El capítulo central de la guía sitúa el cumplimiento normativo como piedra angular de la adopción responsable de la inteligencia artificial en la abogacía. En un momento en que el Reglamento Europeo de Inteligencia Artificial (AI Act) empieza a desplegar sus primeras obligaciones, el ICAM recuerda que cada herramienta incorporada a un despacho debe responder a criterios claros de gobernanza, transparencia y rendición de cuentas.
La publicación propone a los despachos adoptar protocolos internos de control, definir qué soluciones tecnológicas pueden emplearse, con qué objetivos y bajo qué condiciones, y designar responsables de supervisión que garanticen la revisión humana de toda decisión relevante.
También aconseja auditorías periódicas y procesos de actualización continua para evaluar la fiabilidad técnica y jurídica de los sistemas, en línea con las exigencias del Reglamento General de Protección de Datos y con la responsabilidad profesional.
Uno de los apartados más relevantes se centra en el respeto a los derechos fundamentales y la mitigación de sesgos, recordando que la inteligencia artificial no es neutral: los algoritmos pueden amplificar desigualdades si no se auditan los datos con los que se entrenan. Por ello, la guía recomienda verificar la equidad y calidad de los datos, auditar los modelos de forma periódica y fomentar la diversidad en los equipos que diseñan o supervisan estas herramientas, como salvaguarda frente a posibles discriminaciones.
Del conocimiento técnico a la cultura responsable
El avance de la inteligencia artificial ha convertido la competencia tecnológica en una exigencia ineludible para el ejercicio profesional. Por ello, la guía pone el foco en la formación y actualización dentro de los despachos, e insta a los abogados a comprender el funcionamiento de las herramientas que utilizan, evaluar su fiabilidad y sus límites, y promover una cultura de aprendizaje tecnológico que refuerce la calidad del servicio jurídico.
El texto recomienda invertir en capacitación técnica y evaluación interna, con pruebas de funcionamiento y talleres prácticos, y fomentar comunidades de aprendizaje que integren a juristas, tecnólogos, expertos en protección de datos y en ética de la inteligencia artificial. Solo desde esa colaboración interdisciplinar -sostiene el documento- podrá consolidarse una integración segura y coherente con los valores de la abogacía.
La guía aborda asimismo la supervisión de terceros, un aspecto cada vez más relevante ante la proliferación de plataformas externas y servicios en la nube. Advierte que la delegación tecnológica no puede implicar la delegación de responsabilidad: el uso de herramientas desarrolladas por proveedores externos debe regirse por los mismos estándares de diligencia, transparencia y confidencialidad que los aplicados internamente.
Los despachos, añade, deben garantizar que las empresas proveedoras cumplan la normativa vigente y que en ningún caso se sustituyan funciones que requieran juicio jurídico o control humano directo.
En definitiva, la integración responsable de la IA exige una combinación equilibrada de formación técnica, ética profesional y supervisión jurídica, de modo que la innovación no se imponga sobre la esencia del Derecho, sino que la refuerce.