LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

30/11/2025. 08:47:40
30/11/2025. 08:47:40

LegalToday

Por y para profesionales del Derecho

El uso de algoritmos en soluciones Legaltech y el riesgo de sesgos o resultados discriminatorios

Fernando Biurrun Abad

Abogado. Fundador de Law&Trends Consultor de Social Media @fbiurrun

  • Las herramientas automatizadas están lejos de ser neutrales, y no son necesariamente menos discriminatorias
  • Si los datos con los que se entrena la inteligencia artificial están sesgados, los resultados también lo estarán

Son muchas las soluciones Legatech que utiliza la Inteligencia Artificial como base del desarrollo de sus aplicaciones. Tras ella, existen una numero de algoritmos que son el fundamento de su aprendizaje, unido a los datos e informaciones de que se alimentan.

Recientemente, la UE ha presentado un informe titulado Sesgos en los algoritmos. Inteligencia artificial y discriminación,en el que, partiendo de simulaciones informáticas con datos reales, llega a demostrar que el uso de algoritmos para tomar decisiones puede vulnerar derechos humanos.

El informe publicado por la Agencia de los Derechos Fundamentales (FRA) de la UE señala que «ahora sabemos que las herramientas automatizadas están lejos de ser neutrales, y no son necesariamente menos discriminatorias. Este informe demuestra que el sesgo forma parte del desarrollo de algoritmos».

El informe abunda en una investigación realizada sobre investigación de delitos, en la presencia de sesgos y prejuicios en los algoritmos utilizados, para supuestos como pueden ser la prevención de mensajes de odio en las redes sociales, pueden terminar siendo discriminatorios si se deja usar estas herramientas sin un control y un proceso de corrección humana.

El director de la FRA, Michael O’Flaherty en el preámbulo del informe destaca cómo las simulaciones realizadas por la Agencia “resaltan la facilidad con la que los algoritmos pueden sesgarse o desarrollar sesgos en el tiempo. Y esto puede conducir a la discriminación”. Y pone el énfasis en cómo no hay que dejar de invertir en Inteligencia Artificial, sino que, además, destaca en papel que los humanos debemos desempeñar en el seguimiento, análisis y aprendizaje de esta tecnología. “Ya es hora de disipar el mito de que los derechos humanos nos impiden avanzar. Más derechos humanos significan tecnología más confiable”, concluye O’Flaherty.

¿Quieres leer el contenido completo y el resto de publicaciones de AJA 991?

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.

Resumen de privacidad

Este sitio web utiliza cookies para mejorar tu experiencia mientras navegas por el sitio web. De estas, las cookies que se clasifican como necesarias se almacenan en tu navegador, ya que son esenciales para el funcionamiento de las funcionalidades básicas del sitio web. Estas cookies no requieren el consentimiento del usuario. También utilizamos cookies de terceros: analíticas, que nos ayudan a analizar y comprender cómo utilizas este sitio web, y publicitarias, para generar audiencias y ofrecer publicidad personalizada a través de los hábitos de navegación de los usuarios. Estas cookies se almacenarán en tu navegador solo con tu consentimiento. También tienes la opción de optar por no recibir estas cookies. La exclusión voluntaria de algunas de estas cookies puede afectar a tu experiencia de navegación.