LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi LA LEY, por y para profesionales del Derecho

15/04/2026. 14:25:10
15/04/2026. 14:25:10

LegalToday

Por y para profesionales del Derecho

Hacia una IA inclusiva sin sesgos de género en el ámbito jurídico

Nuria Marchal Escalona, Catedrática de Derecho internacional privado Universidad de Granada

La incorporación de sistemas basados en Inteligencia Artificial (IA) en el ámbito del Derecho ha transformado de manera significativa la prestación de servicios jurídicos, introduciendo herramientas capaces de automatizar la redacción de contratos, analizar grandes volúmenes de documentación o gestionar la relación con clientes. Este avance ha mejorado la eficiencia y la accesibilidad de los servicios, pero también ha puesto de manifiesto un problema fundamental: la tecnología no es neutral. Los sistemas de inteligencia artificial aprenden de datos históricos y, por tanto, pueden reproducir e incluso amplificar sesgos estructurales, entre ellos los relacionados con el género.

Estos sesgos se manifiestan de forma diversa en el ejercicio profesional dentro del ámbito jurídico. Uno de los espacios más evidentes es la redacción automatizada de documentos, como contratos, escritos o informes. Muchas herramientas de generación de lenguaje tienden a utilizar el masculino genérico de manera sistemática, reproduciendo fórmulas como “el cliente”, “el abogado” o “el interesado”. Aunque tradicionalmente aceptado en el lenguaje jurídico, este uso contribuye a invisibilizar a otros sujetos y perpetuar una representación androcéntrica del Derecho. Dado que estos sistemas aprenden de textos jurídicos previos –históricamente redactados bajo esos mismos patrones–, la automatización no corrige el sesgo, sino que lo consolida y lo difunde a gran escala.

Otro ámbito relevante son los sistemas automatizados de selección de personal en despachos o departamentos jurídicos. Estos pueden reproducir sesgos de género cuando se entrenan con datos históricos de contratación. Si dichos datos reflejan una preferencia previa por candidatos hombres, el sistema puede tender a favorecer perfiles masculinos y penalizar candidatas mujeres, incluso cuando la cualificación es equivalente. Esto genera desigualdades en el acceso al empleo jurídico bajo una apariencia de neutralidad y objetividad técnica.

En la organización interna del trabajo mediante herramientas de gestión automatizada, cada vez más utilizadas en grandes despachos de abogados, los sistemas asignan tareas en función de variables como la disponibilidad, la experiencia previa o el rendimiento histórico. Sin embargo, si los datos de entrenamiento reflejan prácticas pasadas en las que los casos más complejos o visibles se asignaban mayoritariamente a hombres, el sistema puede reproducir y perpetuar ese patrón. De este modo, la inteligencia artificial puede influir indirectamente en la distribución de oportunidades profesionales, reforzando dinámicas estructurales de desigualdad dentro del ámbito jurídico.

También en el ámbito de la evaluación del rendimiento profesional, los sistemas automatizados pueden incorporar sesgos al basarse en métricas aparentemente objetivas como la productividad, la disponibilidad o las horas facturables, sin tener en cuenta interrupciones justificadas en la trayectoria profesional. Por ejemplo, una abogada que haya tenido una baja por maternidad puede presentar una menor facturación o disponibilidad temporal, lo que el sistema puede interpretar negativamente al no contextualizar esta situación. Como resultado, se generan valoraciones injustas que pueden perjudicar su acceso a promociones o casos relevantes, contribuyendo a perpetuar desigualdades de género bajo una apariencia de neutralidad técnica.

En definitiva, la IA en el ámbito jurídico no es solo una herramienta técnica, sino un elemento que influye en aspectos clave como el lenguaje jurídico, la contratación, la asignación de tareas y la evaluación profesional. Al aprender de datos históricos, estos sistemas pueden reproducir y amplificar desigualdades de género existentes. Por ello, el sesgo de género constituye un riesgo sistémico que puede aparecer de forma sutil y progresiva, contribuyendo a mantener o profundizar desigualdades estructurales en el ejercicio del Derecho.

Precisamente por esto, su corrección exige la revisión de los datos de entrenamiento, ya que los datos jurídicos pueden reflejar desigualdades de género. Es necesario seleccionar, depurar y contextualizar para evitar patrones discriminatorios y asegurar la equidad del sistema.

Asimismo, las auditorías algorítmicas son clave para detectar y corregir sesgos de género en la profesión jurídica. No solo evalúan el rendimiento técnico de los sistemas, sino también su impacto en la igualdad y la no discriminación, siendo necesarias de forma continua para evitar efectos discriminatorios en su uso.

Por último, la supervisión humana es central como garantía frente a riesgos de automatización. La intervención debe reforzarse donde la inteligencia artificial pueda generar efectos discriminatorios o difíciles de detectar, validando resultados, cuestionando criterios automatizados y asegurando la observancia del principio de igualdad.

No obstante, a nuestro juicio, la clave reside en adoptar un enfoque de gender mainstreaming en el desarrollo de sistemas de inteligencia artificial en el ámbito jurídico. En lugar de corregir los sesgos una vez que ya se han producido, se debe prevenir la aparición de sesgos desde la propia arquitectura del sistema, garantizando que la tecnología jurídica se desarrolle bajo principios reales de igualdad y no discriminación.

En conjunto, avanzar hacia una inteligencia artificial inclusiva en el ámbito jurídico exige un cambio de enfoque: no se trata únicamente de corregir los sesgos una vez detectados, sino de prevenirlos desde el diseño mediante el gender mainstreaming. Solo así será posible evitar que la automatización consolide desigualdades existentes y, por el contrario, aprovechar su potencial para un ejercicio profesional más justo y equitativo.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.

Resumen de privacidad

Este sitio web utiliza cookies para mejorar tu experiencia mientras navegas por el sitio web. De estas, las cookies que se clasifican como necesarias se almacenan en tu navegador, ya que son esenciales para el funcionamiento de las funcionalidades básicas del sitio web. Estas cookies no requieren el consentimiento del usuario. También utilizamos cookies de terceros: analíticas, que nos ayudan a analizar y comprender cómo utilizas este sitio web, y publicitarias, para generar audiencias y ofrecer publicidad personalizada a través de los hábitos de navegación de los usuarios. Estas cookies se almacenarán en tu navegador solo con tu consentimiento. También tienes la opción de optar por no recibir estas cookies. La exclusión voluntaria de algunas de estas cookies puede afectar a tu experiencia de navegación.