nº 1.001 - 30 de noviembre de 2023
Inteligencia Artificial: cuándo el mañana es hoy
(Sobre la incipiente normativa nacional y europea en materia de Inteligencia Artificial)
J&F
La Inteligencia Artificial (IA) es un concepto cada día más presente en nuestras conversaciones y en nuestras vidas. Eso sí, en la mayoría de los casos desde el escepticismo propio de la incredulidad cuando no de la condescendencia.
En nuestro mundo, el jurídico, adoptamos una doble posición. Vemos cómo esos avances tecnológicos pueden afectar a las profesiones científicas o técnicas, pero sin dejar de pensar que eso a nosotros no nos puede pasar. Que a nosotros no nos llegará. Pero lo cierto es que ya lo tenemos dentro de casa.
Cada vez son más los que se asoman a aplicaciones como ChatGPT que, como poco, nos hacen pensar acerca de esos planteamientos de superioridad desde los que no pocos enfocan la Inteligencia Artificial, como algo lejano y que no va con nosotros.
Ni siquiera somos capaces de definir la Inteligencia Artificial.
Pero la Unión Europea lleva tiempo preocupada por la Inteligencia Artificial y sus efectos, y hace tiempo que maneja una propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de inteligencia artificial) y se modifican determinados actos legislativos de la Unión – Bruselas, 21.4.2021, COM(2021) 206 final, 2021/0106(COD)–, actuaciones que se incardinan en la adopción de medidas para garantizar el establecimiento y el funcionamiento del mercado interior (artículo 114 del Tratado de Funcionamiento de la Unión Europea) y, para el caso de tratarse de una competencia no exclusiva, en el principio de subsidiariedad.
En el artículo 3.1 de ese Proyecto de Reglamento se define «Sistema de inteligencia artificial (sistema de IA)» como «el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa».
Anexo I del Proyecto de Reglamento en el que se hace referencia a tres tipos de técnicas y estrategias:
– Estrategias de aprendizaje automático, incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo.
– Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico).
– Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización.
Ciertamente estamos antes definiciones que no resultan fácilmente aprehensibles… y aunque si preocupantes.
De hecho, como señala la Exposición de motivos del propio proyecto de Reglamento, en las conclusiones de la Reunión extraordinaria del el Consejo Europeo celebrada los días 1 y 2 de octubre de 2020 «destacó la importancia de garantizar el pleno respeto de los derechos de los ciudadanos europeos y pidió que se revisase la legislación pertinente en vigor con vistas a garantizar su adaptación a las nuevas oportunidades y retos que plantea la IA» y «asimismo, el Consejo Europeo ha pedido que se defina con claridad qué usos de la IA deben considerarse de alto riesgo».
En estas el Ministerio de Asuntos Económicos y Transformación Digital ha elaborado el Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.
Real Decreto en el que encontramos diferentes definiciones (artículo 3), como es la de «Sistema de inteligencia artificial» como «sistema diseñado para funcionar con un cierto nivel de autonomía y que, basándose en datos de entradas proporcionadas por máquinas o por personas, infiere cómo lograr un conjunto de objetivos establecidos utilizando estrategias de aprendizaje automático o basadas en la lógica y el conocimiento, y genera información de salida, como contenidos (sistemas de inteligencia artificial generativos), predicciones, recomendaciones o decisiones, que influyan en los entornos con los que interactúa», definición que, como puede comprobarse, no coincide con las del Proyecto de Reglamento.
A su lado se establece lo que ha de entenderse por «sistema de inteligencia artificial de alto riesgo» (artículo 3.4), que se completa (en el Anexo II) con el Listado de áreas de sistemas de inteligencia artificial de alto riesgo específicos
Para terminar esta aproximación conviene detenerse en las ocho materias (áreas) en las que la presencia de sistemas de inteligencia artificial se considera de alto riesgo, como son:
1. Identificación biométrica y categorización de personas físicas.
2. Infraestructuras críticas (del tráfico rodado y del suministro de agua, gas, calefacción y electricidad).
3. Educación y formación profesional.
4. Empleo, gestión de trabajadores y acceso al autoempleo.
5. Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios.
6. Asuntos relacionados con la aplicación de la ley
7. Gestión de la migración, el asilo y el control fronterizo.
8. Actividad jurisdiccional y procesos democráticos.
Materias que se definen como de alto riesgo no porque se perciba que puedan llegar a afectar (potencialmente) a los derechos de los ciudadanos, sino por qué ya existen aplicaciones que actúan en esos ámbitos y que producen (realmente) esos efectos.
Ese futuro que, para algunos, sigue siendo de ciencia ficción inalcanzable, ya está aquí. Y negarlo no resuelve nada. Ha llegado el momento de analizarlo para entenderlo y, así, poder regularlo adecuadamente. Toca ponerse se las pilas. ■