LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

11/11/2025. 06:23:10
11/11/2025. 06:23:10

LegalToday

Por y para profesionales del Derecho

Tribuna EJE&CON | El abogado ‘in-house’ ante la nueva frontera ética de la inteligencia artificial: del cumplimiento al propósito responsable

Secretaria del Comité de Inteligencia Artificial Responsable Grupo Prosegur

La irrupción del Reglamento Europeo de Inteligencia Artificial (AI Act) marca un punto de inflexión en la forma en que las organizaciones deben abordar el uso de la IA. No basta con desarrollar o implementar sistemas de IA funcionales y eficientes, sino que se exige que sean seguros, transparentes, trazables y éticamente responsables.

Este nuevo marco normativo impone obligaciones específicas de evaluación, documentación y supervisión. Sin embargo, más allá de las obligaciones técnicas, el verdadero desafío reside en integrar la ética como factor clave en el desarrollo y uso de la IA. Es este nuevo desafío, el abogado in-house, tradicionalmente centrado en la prevención de riesgos legales, asume un rol estratégico: participar en la definición de políticas internas sobre IA, impulsar evaluaciones de impacto ético y coordinar equipos multidisciplinares donde conviven ingenieros, científicos de datos, responsables de compliance y directivos.

Su papel no se limita a “interpretar el Reglamento”, sino a darle sentido en la práctica, traduciendo principios jurídicos —como la no discriminación, la transparencia o la proporcionalidad— en decisiones de negocio concretas.

Uno de los ámbitos donde esta nueva función del abogado in-house cobra mayor relevancia es el de los sesgos algorítmicos. El AI Act establece la obligación de evitar discriminaciones y garantizar resultados equitativos, pero ¿qué es exactamente un “sesgo” y cómo se determina?

Los sesgos pueden derivar de múltiples fuentes: desde datos históricos que reflejan desigualdades estructurales hasta decisiones técnicas aparentemente neutras en el diseño de los modelos. Lo complejo no es solo identificar su existencia, sino determinar cuándo un patrón estadístico se convierte en una discriminación jurídicamente relevante.

Por ejemplo, un sistema de reclutamiento automatizado que reduce la probabilidad de seleccionar mujeres para ciertos puestos refleja un sesgo evidente; pero ¿qué ocurre con un modelo de recomendación que prioriza perfiles con trayectorias “más estables” según datos previos? La frontera entre una preferencia legítima y una exclusión indirecta puede ser difusa.

Aquí, el abogado in-house desempeña un papel crítico: debe interpretar el riesgo legal y reputacional de esos matices, participar en la definición de métricas de equidad y promover auditorías que no se limiten a la verificación técnica, sino que incluyan una evaluación del impacto social.

El IA Act prevé que los sistemas de alto riesgo sean auditables y cuenten con mecanismos de trazabilidad y documentación. Esto abre un terreno inédito para el asesor jurídico interno: garantizar que la empresa disponga de protocolos verificables que demuestren diligencia en la gestión de la IA.

Una auditoría eficaz no se reduce a un checklist de cumplimiento. Implica la posibilidad real de rastrear decisiones algorítmicas, entender por qué un modelo tomó determinada decisión y, en su caso, justificar su corrección.
El reto es que muchos sistemas de IA funcionan como “cajas negras”, difíciles de explicar incluso para sus propios desarrolladores. Aun así, el deber de diligencia no desaparece: las empresas deberán demostrar que han adoptado todas las medidas razonables para prevenir sesgos y daños derivados.

En este contexto, la norma IEEE 7003-2024 emerge como una herramienta de referencia para abordar los sesgos algorítmicos. Este estándar internacional proporciona directrices claras para la identificación y mitigación de sesgos en los sistemas de inteligencia artificial, estableciendo procedimientos específicos para gestionar los riesgos asociados a los datos, el diseño de los modelos y los procesos de toma de decisiones automatizadas. Su aplicación ayuda a las organizaciones a estructurar auditorías objetivas y repetibles, facilitando la trazabilidad y la transparencia en la gestión de los sesgos, y reforzando así la confianza en los resultados producidos por los algoritmos. De este modo, IEEE 7003-2024 se convierte en un complemento esencial al marco normativo europeo, ayudando a garantizar que la IA se desarrolle y utilice de manera justa y responsable.

En caso de que una auditoría o incidente evidencie la presencia de sesgos discriminatorios, las repercusiones pueden exceder el ámbito de las sanciones administrativas, dando lugar a posibles responsabilidades civiles, contractuales e incluso penales, además de afectar negativamente la reputación institucional.

El abogado in-house ocupa un papel central en la gobernanza de la inteligencia artificial dentro de la cultura corporativa, siendo responsable de anticipar posibles riesgos antes de que ocurran.

La inteligencia artificial no debe reemplazar el juicio humano, sino reforzarlo. Y el abogado in-house está llamado a ser su conciencia jurídica y ética.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.