LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

26/04/2024. 19:51:07

LegalToday

Por y para profesionales del Derecho

Europa y la Inteligencia Artificial: ¿una regulación de “ciencia ficción” o basada en “hechos reales”?

Socio y director del Área en Gabeiras & Asociados

  • El Proyecto de Reglamento sobre la Inteligencia Artificial. Una apuesta europea para garantizar los Derechos Fundamentales

A finales de abril, la Comisión Europea publicó la propuesta de Reglamento sobre Inteligencia Artificial, un documento esperado por la comunidad científica y jurídica no solo a nivel europeo, sino a nivel mundial.  En los últimos años, el desarrollo e implementación de la tecnología basada en Inteligencia Artificial parece que ha tenido como epicentros a los Estados Unidos de América y la República Popular China, pero ha sido Europa la primera que se ha lanzado a plantear una regulación integral del fenómeno de la IA desde una perspectiva que, en contraposición a la China, se declara expresamente garantista con los derechos fundamentales. A modo de explicación del título de este artículo, podríamos decir que esta nueva normativa se ha basado en “hechos reales”, pues parece haber tomado en consideración los distintos supuestos que se han ido produciendo en países de la Unión, y que dieron lugar a resoluciones judiciales que han analizado el posible menoscabo de los derechos de los ciudadanos europeos en la utilización de algoritmos. Veamos en qué consiste.

Una de las claves de la norma es que no pretende regular tecnologías (ya que quedaría obsoleta enseguida) sino los “usos” de esa tecnología, estableciendo una clasificación o graduación de los riesgos que pueden entrañar: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo. En consecuencia, propone una serie de controles ex ante y ex post, según la intensidad del riesgo y el bien jurídico a proteger, llegando incluso a prohibir los usos que se consideran de riesgo inaceptable.

Qué Derechos Fundamentales pueden estar afectados por la IA

Esta nueva regulación está llamada a ser especialmente protectora de los Derechos Fundamentales, ya que el grueso del sistema de control y prevención de los riesgos se aquilata desde la perspectiva de su tutela, y la mejor prueba la encontramos en los considerandos de la propuesta de Reglamento, que se erigen como una autentica declaración de intenciones del legislador europeo, al recoger expresamente qué Derechos Fundamentales pueden verse amenazados por los distintos usos de la IA.

Por un lado, se alude a la posible afección de los siguientes: a la dignidad humana, a la protección de datos personales e intimidad, a la no discriminación e igualdad entre mujeres y hombres, prestando especial atención a los mecanismos para evitar el menoscabo al derecho a la libertad de expresión y reunión.

Por otro lado, se hace especial hincapié en los relacionados con la justicia, al ser el vehículo para poder garantizar el resto de los Derechos Fundamentales recogidos en la Carta, de ahí la especial mención al Derecho a la tutela judicial efectiva y al juez imparcial, así como la presunción de inocencia.

Sobre los controles y prohibiciones de los usos de la IA que afecten a los Derechos Fundamentales

Como vimos anteriormente la propuesta de Reglamento establece hasta cuatro clasificaciones de riesgos en el uso de la IA (riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo), si bien aquellos usos que conciernen a los Derechos Fundamentales se agrupan, principalmente, en las dos primeras categorías que abordaremos a continuación.

Así, se puede valorar positivamente que la propuesta de reglamento delimite una serie de usos de riesgo inaceptable y cuyo uso prohíbe directamente, como por ejemplo los sistemas que manipulen el comportamiento y las decisiones humanas, aquellos que puedan explotar información o predicciones sobre grupos de personas para atacar sus vulnerabilidades, la vigilancia indiscriminada o los sistemas de puntuación social.

Estos usos de la Inteligencia Artificial, que acertadamente son calificados como de riesgo inaceptable, parecen “ciencia ficción” a día de hoy en suelo europeo, pero no tanto en otras regiones del globo, pues el sistema de puntuación social o la vigilancia indiscriminada pueden ser una realidad en la República Popular China.

Los algoritmos de “alto riesgo” y su clasificación según los casos reales ya analizados por nuestros tribunales

Conforme a la propuesta de reglamento, los sistemas de alto riesgo son aquellos en cuyo uso existe un potencial riesgo de lesión a la salud, la seguridad y otros Derechos Fundamentales de las personas. Esos posibles ejemplos de uso se recogen a modo de Anexo, que podrá ser actualizado a propuesta de la Comisión según avance el estado de la técnica.

Si los ejemplos de sistemas IA de riesgo inaceptable parecen “ciencia ficción”, los que serán clasificados como de “alto riesgo” parecen “basados en hechos reales” a la vista de varios supuestos que han dado lugar a sentencias dictadas en Europa. En efecto, muchos de los ejemplos recogidos en el Anexo se identifican con casos reales.

Así, al leer los posibles riesgos en el uso de sistemas de IA en el acceso y mantenimiento del empleo, es inevitable recordar la sentencia dictada por un tribunal laboral en Bolonia que declaró que el Algoritmo “Frank” utilizado por Deliveroo era discriminatorio con los trabajadores, penalizando a los que ejercían su derecho a huelga o al descanso.

En lo que respecta al acceso a servicios prestacionales públicos, podemos ver reflejado el procedimiento iniciado por Civio en España para obligar a hacer público el código de un programa que decide quién resulta beneficiario del bono social eléctrico, o la decisiva sentencia dictada por un tribunal de la Haya en el caso SyRi que declaró ilegal por discriminatorio un algoritmo para la prestación de ayudas sociales en Holanda. 

O cuando se alude a los sistemas de IA para reforzar el cumplimiento de la Ley, como los relacionados con la predicción de reincidencia de un preso, viene a la memoria el caso Loomis, que puso en cuestión el programa de evaluación de reincidencias (COMPASS) utilizado en EEUU, o incluso el sistema X-Law utilizado en Italia como policía “predictiva” para evitar delitos.

En definitiva, ante los sistemas de inteligencia artificial de alto riesgo no estamos en un escenario de ciencia ficción, sino que se trata de sistemas que se han utilizado recientemente, siendo los jueces y tribunales quienes han ejercido de garantes de los derechos de los ciudadanos europeos.

El futuro de un sistema de Compliance en materia de IA

Como indicamos anteriormente, los sistemas de IA de alto riesgo estarán sometidos a una serie de obligaciones estrictas antes de poder iniciar su comercialización, lo que garantizará un control previo de los mismos. En concreto, se deberán establecer sistemas de evaluación y mitigación de riesgos, asegurar que los datos que alimentan el sistema sean fiables, especialmente para evitar la discriminación. Además, se deberá implementar un registro de actividad que permita trazar los resultados del algoritmo y conservar toda la documentación del proceso, a fin de que pueda ser evaluada por las Autoridades, y dar las explicaciones de forma clara y adecuada a los usuarios.

Este control previo de los usos pretende evitar, en buena medida, que tengan que ser los jueces y tribunales de los estados miembros quienes, como hasta ahora, otorguen tutela a los ciudadanos cuando sus derechos ya han sido vulnerados.  Además, la nueva normativa conferirá a los operadores del mercado un marco de seguridad jurídica que sin duda estimulará la inversión y la innovación, especialmente a través de los sandboxes regulatorios, pensados para facilitar el desarrollo y prueba de sistemas de IA antes de su comercialización.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.