nº 1.003 - 30 de enero de 2024
El futuro Reglamento Europeo de Inteligencia Artificial
Anna Jarques. Abogada y Agente de Propiedad Industrial
El objetivo fundamental del texto es garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE
La idea principal del texto es regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque «basado en el riesgo»: cuanto mayor es el riesgo, más estrictas son las reglas
El pasado 9 de diciembre de 2023 el Parlamento y el Consejo alcanzaron un acuerdo provisional sobre la futura «Ley de Inteligencia Artificial», que constituirá la primera regulación integral sobre Inteligencia Artificial en el mundo y que tendrá forma de reglamento europeo, de aplicación directa en todos los Estados miembros.
Se trata de un gran paso que pretende convertir a la Unión Europea en pionera en el establecimiento de un marco normativo para al desarrollo y el uso de los sistemas de Inteligencia Artificial.
Hace ya dos años que se iniciaron los debates para la elaboración de este texto. La Comisión Europea presentó en abril de 2021, su paquete de IA, que incluye su Comunicación sobre el fomento de un enfoque europeo de la IA; una revisión del Plan Coordinado de Inteligencia Artificial con los Estados miembros de la UE y, finalmente, su propuesta marco regulador sobre inteligencia artificial y evaluación de impacto pertinente.
El objetivo fundamental del texto es garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE.
La Unión Europea se convertirá así en el líder en la regulación de la IA, una vez se publique la normativa.
No obstante, muchas de sus disposiciones no serán aplicables hasta trascurrido un plazo de veinticuatro meses desde su entrada en vigor.
Líneas generales del Acuerdo
En este artículo resumimos en líneas generales los aspectos fundamentales de este Acuerdo.
En primer lugar, el acuerdo armoniza la definición de la IA, conforme a las líneas establecidas por la OCDE, es decir, en su versión actual de noviembre 2023, entendida como un sistema basado en máquinas que, con objetivos explícitos o implícitos, infiere, a partir del input que recibe, como generar outputs tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los distintos sistemas de IA varían en sus niveles de autonomía y capacidad de adaptación tras su despliegue.
La idea principal del texto es regular la IA en función de su capacidad de causar daño a la sociedad siguiendo un enfoque «basado en el riesgo»: cuanto mayor es el riesgo, más estrictas son las reglas.
Efectivamente, la normativa establece obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto. De este modo, se dividen los sistemas de IA en:
– Riesgo inaceptable.
– Alto riesgo.
– Riesgo limitado.
– Riesgo mínimo.
Los sistemas de riesgo inaceptable estarán prohibidos, mientras que los de alto riesgo requerirán estrictas medidas. Los sistemas de riesgo limitado y mínimo tendrán regulaciones y medidas menos estrictas y estará sujetos a obligaciones de transparencia muy leves, como por ejemplo la divulgación de que el contenido se hubiera generado mediante IA, de modo que los usuarios puedan tomar decisiones fundadas sobre su uso posterior.
En concreto, acordaron prohibir por constituir un riesgo inaceptable, entre otros, los sistemas de categorización biométrica que utilicen características sensibles: creencias políticas, religiosas, filosóficas, orientación sexual, raza, etc. Este fue uno de los puntos más sensibles y relevantes de la negociación.
También se prohíben, entre otros, la extracción no selectiva de imágenes faciales de Internet para crear bases de datos de reconocimiento facial; el reconocimiento de emociones en el lugar de trabajo y en instituciones educativas; la puntuación social basada en el comportamiento social o las características personales; los sistemas de IA que manipulan el comportamiento humano para eludir su libre albedrío, así como la IA utilizada para explotar las vulnerabilidades de las personas (por ejemplo, debido a su edad, discapacidad, situación social o económica).
Teniendo en cuenta las particularidades de las autoridades policiales y la necesidad de preservar su capacidad para utilizar la IA en sus labores esenciales, se acordaron varias modificaciones en la propuesta de la Comisión en relación con el uso de sistemas de IA con dichos fines policiales.
De este modo, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden, para prevenir unos delitos concretos y sujetos a estrictas salvaguardias.
También se han acordado normas específicas para los modelos fundacionales, tales como ChatGPT. El acuerdo provisional establece que los modelos fundacionales deben cumplir obligaciones específicas en materia de transparencia, de modo que deben explicitar si un texto, una canción o una fotografía se han generado a través de la inteligencia artificial, así como garantizar que los datos que se han empleado respetan los derechos de autor.
Por su parte, los usuarios de IA deberán usar los sistemas de IA de acuerdo con las instrucciones y para los propósitos previstos por los proveedores y en atención a su nivel de riesgo.
Se establecen también organismos específicos para supervisar el cumplimiento de la normativa, tales como la Oficina de IA de la Unión Europea o las autoridades nacionales, así como el régimen de sanciones por incumplimiento, que pueden consistir en un porcentaje del volumen total de negocios de la compañía infractora en el año fiscal previo o incluso una cantidad predeterminada aún mayor.
Tras el acuerdo provisional alcanzado, en las próximas semanas proseguirán los trabajos técnicos para ultimar los detalles del nuevo Reglamento. Por último, deberán confirmar el texto íntegro, que se traducirá y finalmente se adoptará formalmente.
Se trata, por tanto, de un gran paso, al constituir la primera legislación en materia de IA en el mundo. La UE se sitúa, así como pionera en la regulación de la IA por delante de Estados Unidos y China.
Pues si bien la IA es fuente de grandes oportunidades también lo es de riesgos, que la UE no ha querido demorarse en regular y prevenir posibles abusos de derechos fundamentales. En general, pero en este campo en concreto, la tecnología siempre va por delante de las leyes, pero aun así es importante establecer las bases y los principios sobre los que queremos que la tecnología y particular los sistemas basados en IA nos ayude a desarrollar nuestra vida personal y profesional, sometida siempre los principios y derechos fundamentales. ■