LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

18/04/2024. 22:02:06

LegalToday

Por y para profesionales del Derecho

La Inteligencia Artificial, presente y futuro

licenciada en Derecho, abogada en ECIJA, alumna del Master LegalTech CEU

La inteligencia Artificial (IA) pertenece a una familia de tecnologías de rápida evolución que posee el poder de transformar nuestra sociedad y nuestra economía para mejor, abriendo un abanico de posibilidades sin precedentes. Europa tiene como objetivo convertirse en un líder mundial, por ello se pretende estudiar en este articulo algunas consideraciones en materia de responsabilidad aplicables a la IA.

La digitalización ha cambiado y sigue cambiando el mundo.

El derecho de la responsabilidad esta evolucionando para poder hacer frente a las nuevas situaciones, muchas de estas variaciones conllevan cambios en nuestro entorno que pueden repercutir en el derecho de la responsabilidad.  

Nos encontramos con una tecnología de características muy específicas y de gran complejidad como pueden ser la opacidad, la imprevisibilidad y un comportamiento en ocasiones parcialmente autónomo por lo que aplicar únicamente los regímenes de responsabilidad existentes en los países miembros, puede dejar a los posibles perjudicados desprotegidos.

Uno de los requisitos fundamentales para establecer la responsabilidad es la relación de causalidad entre el daño y el damnificado, en general es este último quien tiene que identificar quién y cómo causo el daño.

Resulta tedioso demostrar qué conducta o actividad fue la causante del daño, pero se vuelve aún más complejo si entran en juego otras causas alternativas, y si a todo lo anterior añadimos un problema aún mayor, que viene dado por interconexión de estos sistemas y su mayor dependencia de entrada y datos externos, lo que hace que sea cada vez más complicado identificar si el daño en cuestión fue provocado por una única causa original o por la interacción de múltiples causas.

Las tecnologías digitales emergentes dificultan la aplicación de normas de responsabilidad basadas en la culpa, debido a la falta de modelos bien establecidos de funcionamiento correcto de estas tecnologías y a la posibilidad de que se desarrollen como resultado del aprendizaje sin control humano directo.

Es muy probable que los sistemas de IA requieran actualizaciones más o menos frecuentes que no necesariamente son suministradas por el productor original. Identificar que parte del código es errónea y si lo era desde el principio o tras una modificación requerirá de expertos.

Los sistemas de IA pueden diseñarse para funcionar con distintos niveles de autonomía y utilizarse de forma independente o como componente de un producto, independientemente de que el sistema esté integrado físicamente en el producto o sirva a la funcionalidad del producto sin estar integrado en él.

Sistemas con alto grado de sofisticación junto con una pluralidad de actores hace que cada vez sea más difícil averiguar quién puede ser el responsable de los daños causados.

A medida que estas tecnologías se vuelven complejas, más difícil resulta comprender los procesos que han podido causar el daño.

Cada vez más hablamos de sistemas abiertos que continuamente están recibiendo información y que necesitan interactuar con otros sistemas o fuentes de datos para funcionar correctamente, por otro lado, estos sistemas realizan cada vez más tareas con menos control o supervisión humana y ellos mismos son capaces de alterar los algoritmos iniciales gracias a sus capacidades de autoaprendizaje dependiendo en gran medida de información externa que no está preinstalada.

Todo este flujo de datos hace que estos sistemas sean especialmente vulnerables y que la ciberseguridad adquiera un protagonismo fundamental, siendo muy importante que desde el inicio del diseño el fabricante pueda prever cualquier situación relevante a la que pueda exponerse el producto final.

Esta amalgama de sistemas complejos hace que podamos encontrarnos con más de un operador, de un lado vamos a tener a la persona que decide y se beneficia principalmente del uso de esta tecnología. Y de otro lado quien define continuamente las características de la tecnología correspondiente y proporciona un apoyo esencial y continuo, es decir, el productor del backend.

Hoy en día, carecemos de una normativa comunitaria común capaz de unificar criterios que minimice los riesgos que supone la aplicación de la IA en nuestras vidas y su uso puede afectar negativamente a una serie de derechos fundamentales.

Siendo de vital importancia para la sociedad actual, la adecuación y la exhaustividad de los regímenes de responsabilidad frente a los desafíos tecnológicos que se nos presentan, por ello el objetivo general de los marcos jurídicos de seguridad y responsabilidad es garantizar que todos los productos y servicios, incluidos los que integran las tecnologías digitales emergentes, funcionen de forma segura, fiable y coherente, y que los daños que se produzcan se reparen de forma eficaz.

¡Pero estamos de enhorabuena!, el pasado 21 de abril, la Comisión Europea publicó la primera propuesta por la que se establecen normas armonizadas sobre la IA.

Esta propuesta pretende adoptar las medidas legislativas necesarias para garantizar el buen funcionamiento del mercado interior de los sistemas de Inteligencia Artificial, en el que tanto los beneficios como los riesgos de la IA se aborden adecuadamente.

Tiene unos objetivos específicos, pretendiendo en todo momento que los sistemas de IA comercializados y utilizados sean seguros y respeten la materia vigente de derechos fundamentales y valores de la UE, garantizando la seguridad jurídica para facilitar la inversión y la innovación, facilitando el desarrollo de un mercado único.

Como premisa, limitar sin obstaculizar, generando confianza y dando pie a la creación de nuevas oportunidades que puedan ayudar al tejido empresarial a ser mucho más eficiente.

Cualquier avance tecnológico tiene luces y sombras, y por desgracia, la IA puede utilizarse de forma indebida y proporcionar herramientas novedosas y potentes para prácticas de manipulación, explotación y control social, debe pues prohibirse la comercialización y el uso de estos sistemas de IA destinados a distorsionar el comportamiento humano.

Para mitigar los riesgos de los sistemas de IA deben aplicarse determinados requisitos obligatorios, teniendo en cuenta la finalidad prevista del uso del sistema y de acuerdo con el sistema de gestión de riesgos que establezca el proveedor.

Tras la lectura de este reglamento, podemos comprobar que procura la coherencia entre las diferentes políticas de la Unión, buscando siempre la proporción ya que se basa en el riesgo e impone cargas cuando es probable que un sistema de IA plantee riesgos elevados para los derechos fundamentales y de seguridad.

Si se siguen estas líneas como así parece que lo hace esta propuesta, aumentaremos la confianza de los ciudadanos para con la IA, las empresas ganaran en seguridad jurídica y los Estados miembros no verán motivos para adoptar medidas unilaterales que puedan fragmentar el mercado único.

Debido a la seguridad jurídica y la ausencia de obstáculos en la circulación transfronteriza de los sistemas de IA que se pretende proporcionar con esta propuesta, viviremos un aumento de la demanda y como consecuencia de la oferta.

Las normas establecidas deben aplicarse a los proveedores de sistemas de IA de forma no discriminatoria, independientemente de que estén establecidos en la Unión o en un tercer país, a los usuarios de sistemas de IA establecidos en la Unión y a las instituciones, oficinas, organismos y agencias de la Unión cuando actúen como proveedores.

El título II de la propuesta recoge uno de los usos más controvertidos usos/aplicaciones de la IA, como lo son los sistemas de IA para la identificación biométrica a distancia en tiempo real de personas en espacios de acceso público.

Nos encontramos con una aplicación de la nueva tecnología emergente muy intrusiva que afecta de manera directa a los derechos y libertades de las personas que pudieran verse afectadas, provocando una constante sensación de vigilancia.

En sus artículos se prevé, prohibición de uso de manera extendida y limitarse para unos fines policiales perfectamente definidos como son:

  1. Buscar posibles víctimas de delitos incluidos en este caso a niños.
  2. Prevención de una amenaza específica e inminente para la vida y la seguridad de las personas, estamos hablando, por ejemplo, de un ataque terrorista.
  3. Localizar al autor o sospechoso de un acto delictivo penado con privación de libertad.

Toda utilización de este sistema de identificación biométrica debe estar sujeta a autorización expresa y especifica de una autoridad judicial, dicha autorización debe obtenerse con carácter previo a la utilización, salvo en situaciones de urgencia debidamente justificadas.

Este tipo de reconocimiento biométrico a distancia en tiempo real solo se implementará en los países miembros que así lo regulen y establezcan, quedando siempre a su libre elección.

Los sistemas de IA deben poner a nuestra disposición información de cómo se han desarrollado y como funcionan a lo largo de su ciclo de vida, siendo esta información esencial para verificar el cumplimiento de los requisitos establecidos. Debe exigirse transparencia, los usuarios deben ser capaces de interpretar los resultados del sistema y utilizarlos adecuadamente, debiendo funcionar de forma coherente a lo largo de su ciclo de vida y cumplir un nivel adecuado de presión, solidez y ciberseguridad de acuerdo con el estado de la técnica generalmente reconocido.

Los Estados miembros han de comprometerse y establecer las medidas necesarias para velar por la aplicación de cada una de las disposiciones que recoge esta propuesta y por nuestra parte, nosotros los usuarios, debemos poder utilizar los sistemas de IA de acuerdo con las instrucciones de uso y obligaciones de transparencia.

Para promover y proteger la innovación, no nos podemos olvidar de cuán importante es que se tengan especialmente en cuenta los intereses de los pequeños proveedores y usuarios de sistemas de IA, desarrollando iniciativas dirigidas a estos operadores, incluso en materia de sensibilización y comunicación de información.

Hablamos de tecnologías emergentes y su uso empieza a ser cada vez más extendido, pero los datos reflejan que son sistemas muy complejos y que su uso genera incertidumbre, de ahí que en España tan solo un 7% de las empresas utilicen IA. A pesar de lo bajo que puede resultar este porcentaje, nos encontramos entre los países con un nivel medio alto respecto de países europeos en el uso de estos sistemas.

¿Nuestra máxima? Afrontar de manera positiva cada uno de los nuevos retos que la aparición de estas tecnologías emergentes plantea. Tenemos en nuestras manos conseguir que su uso sea extendido y genere confianza, luchando por un uso responsable y adecuado de la IA.

¡Ánimo! El futuro está aquí.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.