LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

26/04/2024. 19:18:02

LegalToday

Por y para profesionales del Derecho

El uso de algoritmos en soluciones Legaltech y el riesgo de sesgos o resultados discriminatorios

Abogado.
Fundador de Law&Trends
Consultor de Social Media @fbiurrun

  • Las herramientas automatizadas están lejos de ser neutrales, y no son necesariamente menos discriminatorias
  • Si los datos con los que se entrena la inteligencia artificial están sesgados, los resultados también lo estarán

Son muchas las soluciones Legatech que utiliza la Inteligencia Artificial como base del desarrollo de sus aplicaciones. Tras ella, existen una numero de algoritmos que son el fundamento de su aprendizaje, unido a los datos e informaciones de que se alimentan.

Recientemente, la UE ha presentado un informe titulado Sesgos en los algoritmos. Inteligencia artificial y discriminación,en el que, partiendo de simulaciones informáticas con datos reales, llega a demostrar que el uso de algoritmos para tomar decisiones puede vulnerar derechos humanos.

El informe publicado por la Agencia de los Derechos Fundamentales (FRA) de la UE señala que «ahora sabemos que las herramientas automatizadas están lejos de ser neutrales, y no son necesariamente menos discriminatorias. Este informe demuestra que el sesgo forma parte del desarrollo de algoritmos».

El informe abunda en una investigación realizada sobre investigación de delitos, en la presencia de sesgos y prejuicios en los algoritmos utilizados, para supuestos como pueden ser la prevención de mensajes de odio en las redes sociales, pueden terminar siendo discriminatorios si se deja usar estas herramientas sin un control y un proceso de corrección humana.

El director de la FRA, Michael O’Flaherty en el preámbulo del informe destaca cómo las simulaciones realizadas por la Agencia “resaltan la facilidad con la que los algoritmos pueden sesgarse o desarrollar sesgos en el tiempo. Y esto puede conducir a la discriminación”. Y pone el énfasis en cómo no hay que dejar de invertir en Inteligencia Artificial, sino que, además, destaca en papel que los humanos debemos desempeñar en el seguimiento, análisis y aprendizaje de esta tecnología. “Ya es hora de disipar el mito de que los derechos humanos nos impiden avanzar. Más derechos humanos significan tecnología más confiable”, concluye O’Flaherty.

¿Quieres leer el contenido completo y el resto de publicaciones de AJA 991?

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.