
La futura aplicación del Reglamento (UE) 2024/1689 (RIA) está generando numerosas dudas entre los profesionales jurídicos del sector público, ya que la norma impone una serie de obligaciones a los responsables del despliegue de este tipo de sistemas.
El Club de los Miércoles, que organiza Aranzadi LA LEY, celebró ayer una nueva edición, en la que se debatió sobre esta cuestión bajo el título Diez recomendaciones para facilitar a los gestores públicos la aplicación de la IA.
En el encuentro, que estuvo moderado por Concepción Obispo, editora de Derecho Público de Aranzadi LA LEY, intervino Óscar Cortes Abad, autor del Decálogo de consejos y recomendaciones en el uso de inteligencia artificial por gestores públicos.
Concepción Obispo introdujo la cuestión recordando que la IA “ha establecido un marco jurídico uniforme en el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de los sistemas de IA con una clara orientación preventiva, conforme a un enfoque basado en los riesgos”. Recordó además que el marco jurídico que se pretende “debe alinearse con los valores de la UE, en aras de promover una IA centrada en el ser humano y fiable, garante de la protección de la salud, la seguridad y los derechos fundamentales, apoyando la innovación y mejorando el funcionamiento del mercado interior”. De ahí que el RIA “sea aplicable a todo el sector público, dada su calidad de garante del interés general y del bienestar de los ciudadanos”.
Según recordó Óscar Cortés, el pasado 2 de febrero comenzó a entrar en vigor el Reglamento Europeo de una forma progresiva hasta el 2027, motivo por el que “hay una imperiosa necesidad de ir aprendiendo los conceptos relativos a la aplicación de la IA en un ecosistema tan singular como la Administración Pública”.
El decálogo del que es autor y editado por Aranzadi LA LEY, busca sintetizar en diez ideas sencillas, “pero de no tan sencilla aplicación” porque vincula dos mundos complejos, “una tecnología que evoluciona constantemente y sobre la que no hay muchas certidumbres, unida a un ámbito especialmente complicado como es la Administración Pública”.
En su trabajo, el experto estructura su análisis en estos diez consejos que desarrolló a lo largo de su ponencia y que resumimos de forma breve:
1. Delimita adecuadamente el caso de uso
Hay una tendencia muy humana que es que una tecnología se pone de moda y todo el mundo quiere ser el primero. ¿Es real esa necesidad para mejorar algún servicio público o solo porque creemos que hay que implantarla? ¿Qué vamos a ganar y qué vamos a perder desde la perspectiva de preservar el interés general? ¿Va a ayudar a mejorar el interés general? ¿En qué sentido y a qué coste? Debido a que no son tecnologías baratas y hay costes técnicos y de infraestructura, puede haber afectación de derechos fundamentales cayendo en una deshumanización de la institución pública.
2. Clasifica en función del nivel de riesgo
El Reglamento nos anima a calibrar el riesgo y en función del mismo a aplicar requisitos fuertes de protección con usos que están prohibidos, pero la mayoría de usos que pueden estar sometidos a un riesgo bien mínimo, limitado o alto también deben ser observados.
3. Analiza la viabilidad técnica
Son herramientas complejas y es fundamental que la IA que usemos sea lo suficientemente robusta, fiable y segura.
4. Evalúa el impacto sobre los derechos fundamentales
Hay que hacer un análisis del impacto en Derechos Fundamentales para reforzar las garantías en el uso de IA y esto es especialmente importante en la Administración Pública.
5. Amplía el talento y las capacidades en IA
Hay necesidad de alfabetizar y activar el conocimiento de esta tecnología en la función pública, que debe ser mucho más profundo para quienes utilicen estas herramientas que deben ser además valoradas desde otros puntos de vista, como el jurídico o de la compra pública. La IA exige un replanteamiento del talento público.
6. Cuida la vigilancia humana
El art. 14 del Reglamento establece la reserva de humanidad para los sistemas de alto riesgo, reserva que deberíamos extender a otros sistemas como un simple chabot, que nos puede meter en un problema como administración pública. Esto exige vigilancia humana con profesionales capaces de realizarla.
7. Preocúpate por los datos, su calidad y gobernanza
El art. 10 del Reglamento impone obligaciones sobre el tratamiento de los datos en los sistemas de alto riesgo. Como sin datos los modelos no funcionan, aquí entra el principio basura de entrada, basura de salida. Por lo que tenemos que saber con qué dato y cómo se ha entrenado por parte de la empresa privada que la desarrolla, es decir, para poder usar con garantías este tipo de herramientas, la administración pública no puede adoptar una actitud pasiva.
8. No descuides la seguridad
El art. 15 del Reglamento impone obligaciones de resistencia que tiene que tener el sistema ante amenazas como vulneración del sistema, o el sesgo que puede introducir.
9. Procura la transparencia algorítmica
Es necesario que la ciudadanía conozca los algoritmos que usa una administración pública. La confiabilidad de la IA tiene mucho que ver con la capacidad que tiene de interpretar los resultados y ser capaz de explicarlos. Cuanto más avanzada es una tecnología de IA, tiene a ser más opaca y menos robusta.
10. Organízate para el uso de IA
Aquí hay tres patas: el gestor público el tecnólogo y el jurídico, que deben ir de la mano y evitar la moda de que cada uno quiera ir por su lado. La implantación de un sistema debe regirse por un marco común para que el resultado sea responsable y respetuoso con la legalidad y con los valores.