LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

19/04/2024. 20:57:22

LegalToday

Por y para profesionales del Derecho

Primera regulación (y primera controversia) de la inteligencia artificial para el Sector Público español

Investigador predoctoral en Derecho administrativo (Universidad Pública de Navarra)

A la espera de la aprobación definitiva de la propuesta de Reglamento UE sobre Inteligencia Artificial, España ha positivizado por primera vez esta controvertida materia por medio del artículo 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación.

Las Administraciones Públicas que decidan integrar la inteligencia artificial (en adelante, IA) en los procedimientos administrativos de su competencia deberán atender las siguientes líneas de actuación:

«Art. 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados.

1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.

2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.

3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.

4. Se promoverá un sello de calidad de los algoritmos».

Como puede observarse, la literalidad del precepto se caracteriza por su índole programática, no existiendo en ningún caso una formulación imperativa propia de la legislación positiva, dificultándose así el cumplimiento del artículo.

A ser sinceros, el precepto se asemeja más bien a un documento estratégico de programación o planificación que a una norma jurídicamente vinculante, no pareciendo idóneo de cara a la seguridad jurídica establecer una regulación tan susceptible a la voluntariedad sobre el cumplimiento de una materia como la IA, la cual de por sí supone un reto mayúsculo para el conjunto de la sociedad.

Por otra parte, destaca (para mal) la coletilla con la que el artículo citado cierra su primera frase: «[…]tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente».

Es decir, que los requisitos de transparencia, de protección contra los posibles sesgos contenidos en los datos y de rendición de cuentas (propuestos por primera vez para la IA en las Directrices éticas para una IA fiable) podrían llegar a ser obviados si las circunstancias técnicas lo impiden, o lo que es lo mismo, si el concreto sistema IA no puede garantizar los mismos a consecuencia de sus particulares características técnicas.

En tal contexto, surge la siguiente pregunta: ¿se estaría permitiendo la posibilidad de que las Administraciones Públicas pudieran utilizar sistemas IA basados en black boxes como el machine learning o su derivado, el deep learning?

Hay que aclarar que el concepto black boxes (cajas negras) hace referencia a sistemas IA de machine learning sobre los que resulta imposible (desde un punto de vista técnico) conocer las concretas razones por las que estos han llegado a una concreta solución o predicción.  

Es decir, no es factible técnicamente garantizar la transparencia de la solución o predicción propuesta por el sistema IA de machine learning, pudiendo ello conllevar a que los interesados de un procedimiento carezcan de medios para comprobar cómo se ha adoptado el acto administrativo, suponiendo a su vez una vulneración plena de la exigencia de motivación prevista en el artículo 35 de la Ley 39/2015, de 1 de octubre.

Por todo ello, el precepto debería haber omitido la excusa de la imposibilidad técnica para justificar una posible vulneración de un derecho tan básico en el procedimiento administrativo, como es el de transparencia, ya que ello supone una carga desproporcional hacia el interesado, el cual ve truncado su derecho a recibir una resolución motivada como consecuencia de una imposibilidad técnica. 

En definitiva, lo más coherente en aras a evitar confrontaciones con los derechos de los ciudadanos hubiera sido establecer la prohibición de uso por parte de las Administraciones Públicas de sistemas IA sustentados en black boxes.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.