LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi LA LEY, por y para profesionales del Derecho

05/03/2026. 15:25:03
05/03/2026. 15:25:03

LegalToday

Por y para profesionales del Derecho

El ICAM reclama en el Congreso garantías jurídicas para blindar la igualdad ante la inteligencia artificial

ICAM
  • La filósofa Amelia Valcárcel recordó que “la igualdad no pertenece al orden espontáneo de las cosas” y alertó del riesgo de que los sistemas de inteligencia artificial reproduzcan sesgos misóginos invisibles

La búsqueda de soluciones jurídicas para garantizar que el avance de la inteligencia artificial no reproduzca desigualdades históricas ni erosione el principio de igualdad centró este jueves la apertura de la XIII Cumbre de Mujeres Juristas del Ilustre Colegio de la Abogacía de Madrid, celebrada en el Congreso de los Diputados ante más de 200 juristas, especialistas y responsables institucionales.

El decano del ICAM, Eugenio Ribón, y la vicedecana Isabel Winkels inauguraron junto a Amelia Valcárcel un encuentro en el que más de 40 especialistas analizarán los desafíos que plantean los sistemas automatizados en ámbitos tan sensibles como el empleo, la protección de datos, la violencia digital o la toma de decisiones públicas.

La inteligencia artificial y las garantías democráticas

En su intervención inaugural, Ribón situó el debate en el terreno de las garantías democráticas y advirtió de que la inteligencia artificial ya interviene en decisiones con efectos directos sobre derechos fundamentales.

Hablar hoy de inteligencia artificial es hablar también de poder”, afirmó el decano, quien alertó de que los sistemas automatizados pueden reproducir desigualdades estructurales si no se someten a controles jurídicos efectivos.

Recordó además que los algoritmos no son neutrales, ya que se entrenan con datos procedentes de sociedades que arrastran desigualdades históricas. Cuando esos sistemas operan sin transparencia ni mecanismos claros de supervisión, el riesgo es que la discriminación quede oculta bajo apariencia de objetividad técnica.

Si los algoritmos no son transparentes, la discriminación puede volverse invisible”, advirtió.

A juicio del decano, estos riesgos obligan a reforzar los mecanismos de control jurídico sobre los sistemas automatizados y a avanzar hacia marcos normativos que garanticen transparencia, responsabilidad y supervisión efectiva de los algoritmos.

Sesgos algorítmicos y nuevas formas de desigualdad

La vicedecana del ICAM, Isabel Winkels, profundizó en esta idea desde una perspectiva jurídica y técnica, subrayando que el desafío no reside únicamente en el desarrollo tecnológico, sino en cómo se diseñan, entrenan y utilizan los sistemas de inteligencia artificial.

La inteligencia artificial no es buena ni mala en abstracto. Lo decisivo es dónde se aplica, con qué datos, bajo qué incentivos y con qué controles”, señaló.

Winkels advirtió de que los modelos algorítmicos aprenden patrones a partir de datos producidos en sociedades reales y que, si esos datos reflejan desigualdades estructurales, los sistemas pueden reproducirlas o incluso amplificarlas.

Si los datos reflejan un mercado laboral donde las mujeres han sido menos promocionadas, el modelo puede tratar esa desigualdad como si fuera la normalidad estadística”, explicó.

También puso el foco en la falta de diversidad en el desarrollo tecnológico. En la Unión Europea, recordó, las mujeres representan alrededor del 19,5 % del empleo de especialistas en tecnologías de la información, una infrarrepresentación que aumenta el riesgo de “puntos ciegos” en el diseño de sistemas de inteligencia artificial.

Ante este escenario, defendió reforzar el papel de la abogacía en la supervisión jurídica de estos sistemas.

No podemos ser espectadores. Debemos ser arquitectos de garantías”, afirmó.

Regulación, transparencia y control jurídico de los algoritmos

Winkels defendió que el debate sobre inteligencia artificial no puede resolverse únicamente desde la ética o la autorregulación tecnológica, sino que exige un enfoque jurídico basado en garantías, supervisión efectiva y rendición de cuentas.

En este contexto, recordó que la Unión Europea ha aprobado el Reglamento de Inteligencia Artificial (AI Act), que establece una arquitectura regulatoria basada en niveles de riesgo y obligaciones específicas para sistemas de alto riesgo.

No obstante, advirtió de que la eficacia de este marco dependerá de su aplicación práctica y de la capacidad de las instituciones para supervisar el funcionamiento real de estos sistemas.

“La pregunta jurídica es sencilla de formular, pero compleja de ejecutar: cómo evitamos que sistemas automatizados conviertan desigualdades históricas en desigualdades optimizadas”, planteó.

Recordó además que el ordenamiento jurídico español ya cuenta con instrumentos relevantes, como la Ley 15/2022, integral para la igualdad de trato y la no discriminación, que incluye expresamente la inteligencia artificial en su ámbito de aplicación.

Desde esta perspectiva, subrayó la importancia de las garantías procesales y del acceso a la información cuando una persona resulte afectada por decisiones automatizadas.

El papel de la abogacía ante los sistemas automatizados

Tanto el decano como la vicedecana del ICAM coincidieron en subrayar la responsabilidad de la abogacía ante el avance de la inteligencia artificial.

Ribón recordó que el ICAM presentó en 2023 una hoja de ruta sobre los usos de la inteligencia artificial en la profesión jurídica, en la que ya se advertía de riesgos como la desinformación, las suplantaciones de identidad, la vulneración de la propiedad intelectual o la opacidad algorítmica.

Para el decano, la profesión jurídica afronta un doble desafío: adaptarse a un entorno tecnológico transformador y garantizar que ese desarrollo se produzca dentro de los límites del Estado de Derecho.

“La inteligencia artificial puede ser una herramienta extraordinaria para mejorar la eficiencia, pero solo será compatible con el Estado de Derecho si se desarrolla bajo el escrutinio crítico de juristas comprometidos con los derechos y libertades”, afirmó.

“La igualdad no pertenece al orden espontáneo de las cosas”

En la conferencia inaugural, la filósofa Amelia Valcárcel situó el debate en el cruce entre los grandes cambios tecnológicos y los desafíos democráticos contemporáneos.

Advirtió de que los sistemas de inteligencia artificial pueden reproducir sesgos misóginos de forma invisible si no se analizan críticamente.

Si todo lo que contiene puede contener sesgos misóginos, esos sesgos tienen que ser frenados”, afirmó.

“La misoginia que puede estar dentro de un algoritmo no se ve; simplemente funciona”, explicó.

Valcárcel recordó que la igualdad entre hombres y mujeres no es un resultado natural de la evolución social, sino una conquista política que exige vigilancia permanente.

La igualdad no pertenece al orden espontáneo de las cosas”, señaló.

La filósofa concluyó reivindicando el papel del feminismo como uno de los grandes motores de avance social, afirmando que “el feminismo no tiene absolutamente nada de lo que avergonzarse”.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.

Resumen de privacidad

Este sitio web utiliza cookies para mejorar tu experiencia mientras navegas por el sitio web. De estas, las cookies que se clasifican como necesarias se almacenan en tu navegador, ya que son esenciales para el funcionamiento de las funcionalidades básicas del sitio web. Estas cookies no requieren el consentimiento del usuario. También utilizamos cookies de terceros: analíticas, que nos ayudan a analizar y comprender cómo utilizas este sitio web, y publicitarias, para generar audiencias y ofrecer publicidad personalizada a través de los hábitos de navegación de los usuarios. Estas cookies se almacenarán en tu navegador solo con tu consentimiento. También tienes la opción de optar por no recibir estas cookies. La exclusión voluntaria de algunas de estas cookies puede afectar a tu experiencia de navegación.