Transparencia algorítmica y propiedad intelectual en la era del RIA
Pau Camarasa Ferri
Asociado principal. ECIJA
La transparencia propuesta por el Reglamento de Inteligencia Artificial se configura como uno de los ejes del marco de gobernanza europeo
BOSCO funciona casi como un caso piloto nacional que ayuda a leer el RIA en clave práctica
Cada día más decisiones de sectores tanto públicos como privados se apoyan en sistemas automatizados y algoritmos, desde el reconocimiento de un bono social hasta la concesión de un crédito o la priorización de inspecciones. Esto lleva a una pregunta incómoda, pero sencilla: ¿Podemos controlar jurídicamente aquello que no vemos?
En España, la respuesta comienza a tomar forma a través de la ya archiconocida sentencia del Tribunal Supremo 1119/2025, de 11 de septiembre en el denominado caso BOSCO. Esta sentencia versa sobre la aplicación informática que determina el acceso al bono social electrónico. La fundación Civio solicitó acceso al código fuente de BOSCO para comprobar si el algoritmo estaba aplicando de forma correcta la normativa. Ante esto, la Administración denegó dicho acceso amparándose, entre otros, en el límite a la propiedad intelectual del programa de ordenador que representaba BOSCO, la seguridad y el acceso a datos de carácter personal.
En este contexto, el Tribunal Supremo no solo da la razón a Civio, sino que convierte el caso en un auténtico manual de uso sobre cómo ponderar la transparencia, la propiedad intelectual y la seguridad en el software público. Todo ello en un contexto europeo en el que la transparencia propuesta por el Reglamento de Inteligencia Artificial se configura como uno de los ejes del marco de gobernanza europeo.
Transparencia algorítmica de rango constitucional
La sentencia parte de una premisa clara, BOSCO es un programa de ordenador y, por tanto, queda protegido conforme a la Ley de Propiedad Intelectual y, la Administración, es su titular. Ahora bien, su código fuente tiene una doble vertiente, dado que, si bien es una plasmación del programa de ordenador protegido, también es información pública a los efectos de la Ley de Transparencia por cuanto es una traducción a lenguaje informático del conjunto de normas reguladoras del bono social y condiciona directamente el reconocimiento de un derecho social.
En este contexto, el Tribunal hace tres movimientos de especial relevancia:
(A) Constitucionalización de la transparencia algorítmica: El derecho de acceso a la información pública no es solo un principio organizativo, sino que es un derecho subjetivo de rango constitucional, que adquiere especial relevancia cuando la Administración usa un sistema de decisión automatizada que afecta a derechos sociales y con una conexión íntima con verdaderos derechos de corte fundamental como el derecho de participación política, libertad de información y derecho a una tutela judicial efectiva.
(B) Atenuación de la propiedad intelectual en el software público: La propiedad intelectual, si bien es un límite a la Ley de Transparencia (vid. art. 14.1.j LTAIBG), debe interpretarse de forma restrictiva y ponderada. Tradicionalmente la propiedad intelectual tiene por finalidad remunerar y proteger la inversión creativa. No obstante, ello se ve notablemente atenuado en aquellos casos en los que el programa ha sido creado por la Administración para el ejercicio de potestades públicas sin competir en un mercado. Fruto de ello surge la idea de que el mero riesgo de un uso no autorizado no basta para denegar el acceso. Como todos los riesgos, debe gestionarse y mitigarse, no siendo razonable la opacidad completa.
(C) Elevación del concepto de «transparencia»: Para el Tribunal, no basta con que la Administración meramente explique de forma abstracta el funcionamiento del sistema. La transparencia material exige permitir comprobar si el algoritmo aplica correctamente la norma, y eso, en un caso como BOSCO, requiere de acceso al código. Así, evitar la opacidad en algoritmos que deciden sobre derechos sociales es consustancial a un Estado democrático de Derecho.
El RIA y la arquitectura de transparencia para la IA
La lógica subyacente a BOSCO no es una rareza aislada, ni un caso insólito. Si bien el Tribunal se cuida mucho de evitar utilizar el término inteligencia artificial a lo largo de la sentencia, los principios que la insuflan encajan sorprendentemente bien con el núcleo duro del RIA, el cual construye una arquitectura de transparencia por capas.
Para sistemas de IA de alto riesgo (p. ej.: servicios financieros o servicios públicos), el Reglamento impone tres grandes bloques de obligaciones de transparencia.
(A) Transparencia frente a responsables del despliegue: Obligación clara de diseño del sistema de forma suficientemente transparente como para que quien lo usa pueda entender cómo interpretar los resultados y usarlos correctamente. Esto se cristaliza mediante documentación técnica e instrucciones de uso claras y completas.
(B) Transparencia frente a las personas afectadas: En algunos contextos (p. ej.: servicios esenciales) debe informarse a las personas que van a ser sometidas a la toma de decisiones de un sistema de IA, y de las principales características de dicho uso. Ello, con la obligación de realizar una evaluación de impacto de derechos fundamentales antes de su despliegue (FRIA).
(C) Transparencia frente a autoridades y supervisores: La documentación técnica, los registros de logs y los sistemas de monitorización poscomercialización permiten a autoridades y organismos auditar cómo se ha entrenado y cómo se comporta un sistema tras su puesta en producción.
Por tanto, si bien no se exige de forma general el acceso al código fuente, el RIA prevé que el funcionamiento del sistema sea inteligible y reconstruible para quien ha de supervisarlo o impugnar sus resultados.
Para sistemas que no son de alto riesgo o modelos de IA de uso general, las obligaciones se vuelven más laxas, pero existen en dos ámbitos clave: transparencia frente al usuario, en cuanto al hecho de que interactúa con una IA, y la obligación de los proveedores de modelos de IA de uso general de elaborar documentación técnica y publicar un resumen del contenido de entrenamiento (es decir, los datos utilizados para enseñar a la IA).
El mensaje es claro, no basta con que el sistema funcione, su lógica debe poder explicarse y reconstruirse.
BOSCO como lente para la transparencia
Visto así, BOSCO funciona casi como un caso piloto nacional que ayuda a leer el RIA en clave práctica.
Tanto la sentencia como el Reglamento parten de una premisa común: la opacidad de los sistemas automatizados es incompatible con un modelo de Estado de Derecho. Si BOSCO lo expresa en términos de acceso y control judicial del algoritmo, el RIA lo articula como obligaciones concretas de información, documentación y etiquetado, respaldadas en la supervisión de autoridades competentes.
Además, mientras que la sentencia analiza cómo la propiedad intelectual de la Administración no desaparece, pero se atenúa cuando se enfrenta a un interés legítimo en la transparencia algorítmica, el RIA sigue una lógica parecida, protege expresamente secretos y propiedad intelectual, pero ello no exime del cumplimiento de las obligaciones de transparencia diseñadas para proteger al usuario en sus intereses legítimos.
El caso BOSCO ha hecho visible algo que el RIA termina de sistematizar: la transparencia ya no es una buena práctica, sino una obligación jurídica crítica que limita el alcance de la propiedad intelectual y del secreto empresarial cuando se utiliza software para tomar decisiones que afecten a los derechos de las personas. ■