
La inteligencia artificial generativa se ha forjado principalmente por la combinación de dos factores críticos, las extensas fuentes de información de las que se ha nutrido para su entrenamiento y la configuración y diseño de los algoritmos que determinan los resultados ofrecidos en cada consulta. Estos dos elementos pueden condicionar, sin duda alguna, el resultado que ofrece esta tecnología.
Las fuentes de información en las que se ha entrenado un LLM o modelo extenso de lenguaje son un subconjunto de datos escritos por personas, que incorporan sus propios sesgos al modelo, incluso de forma totalmente inconsciente, y, en el ámbito jurídico la evolución de la participación de la mujer jurista en la esfera profesional y académica ha pasado de cifras reducidas a ir creciendo progresivamente en las últimas décadas. Sin embargo, el volumen de datos, base del entrenamiento de la IA está formado mayoritariamente por contenidos escritos por juristas de género masculino.
Para tener una perspectiva más clara, revisemos algunas cifras. En el ámbito universitario, en 2004, el 34% de los docentes eran mujeres, y en 2024 estamos prácticamente en la mitad, no obstante, solamente un 30% del total de Cátedras están ocupadas por mujeres. En 2000, la población de abogadas representaba un 32,7%, mientras que hoy en día, el 45% de los abogados colegiados ejercientes son mujeres y en el caso de los no ejercientes estamos ante el 56%, pero todavía, de los 83 colegios de abogados, solamente 12 de ellos, cuentan con una Decana a su frente. Y si analizamos la Carrera judicial en 2004, las mujeres alcanzaban un 42%, que ha pasado en 2024 al 57%.
La séptima edición del informe The AI Index Report 2024 de la Universidad de Stanford nos revela que en los datos utilizados para entrenar LLM predominan sesgos tanto de género como raciales.
En el ámbito jurídico, los sesgos generados por los datos de entrenamiento pueden deberse al conjunto de información escrita mayoritariamente por juristas masculinos, contenga estereotipos de género, menor uso del lenguaje inclusivo o falta de ciertas perspectivas u opiniones. Además, la menor representatividad femenina en estos contenidos puede excluir ciertas opiniones o informaciones, provocando que los algoritmos perpetúen esos sesgos en sus respuestas y den prevalencia a ciertas fuentes de un género sobre otro. Recordemos que la IA Generativa es esencialmente un sistema estadístico y, por tanto, sus respuestas se basan en métodos probabilísticos o predictivos en función de los datos de entrenamiento. Si los datos de entrenamiento no son suficientemente diversos o representativos de ambos géneros pueden generarse sesgos.
Además, es muy importante destacar que los algoritmos de IA son diseñados por personas, y actualmente, el número de mujeres informáticas sigue siendo reducido. Según el VI Informe Fundación VASS sobre empleabilidad y talento digital en 2023 solamente un 24,6% de los profesionales TIC eran mujeres. En las ramas universitarias de Informática, en 2024, únicamente el 18% de los matriculados han sido mujeres, aunque es un incremento de un 127,5% en comparación con 2016, sigue siendo un dato muy limitado.
Esto nos conduce a pensar, que la mayor parte de los algoritmos de IA están definidos por informáticos del género masculino, que, incluso inconscientemente, pueden amplificar los sesgos en la implementación de esos cálculos probabilísticos y condicionando así las respuestas obtenidas.
¿Cómo podemos cambiar esta dinámica?
Por un lado, necesitamos tiempo y volumen de datos. Cuanto más avance el papel de la mujer jurista como creadora de información en ese universo de datos de entrenamiento y se refuerce su participación en el desarrollo de los propios algoritmos, más posibilidades habrá de minimizar esos posibles sesgos de género.
Y, por otro, la concienciación constante y la vigilancia. El nuevo Reglamento Europeo de IA va a impulsar una mayor transparencia en la definición de los algoritmos y promoverá evaluaciones de impacto que ayuden a identificar y mitigar estos sesgos.
Por tanto, mucha (más) paciencia y conocimiento consciente de la IA por parte de todos los que forman parte de la cadena de desarrollo, producción, distribución y utilización de la IA. Sólo entendiendo cómo se entrena y para qué sirve en cada caso, podemos implementar procesos de revisión, auditoría y sensibilización ética, que minimicen y corrijan esos posibles sesgos.
Los algoritmos de Inteligencia Artificial no son inmunes a los sesgos de género, ya que reflejan las desigualdades presentes en los datos con los que son entrenados y en el contexto social y profesional en el que se desarrollan.
Si no mitigamos los sesgos, estos tenderán a amplificarse y perpetuarse. No debemos olvidarlo.
¿Quieres participar en Mujeres por Derecho? Apúntate aquí
