LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

29/03/2024. 13:46:15

LegalToday

Por y para profesionales del Derecho

Según el grupo de expertos de la UE, los impactos éticos de la IA son inimaginables

Abogado.
Fundador de Law&Trends
Consultor de Social Media @fbiurrun

El grupo de expertos de alto nivel de la Inteligencia Artificial de la UE ha advertido que el software de inteligencia artificial (AI) representa un riesgo para la sociedad, incluido el seguimiento e identificación de personas, su clasificación sin su conocimiento y la potenciación de sistemas de armas autónomas letales.

Inteligencia artificial

El pasado 8 de abril la Comisión Europea publicó las Directrices éticas para una AI fiable en la que el grupo de expertos describe los riesgos de la Inteligencia Artificial.

Al mismo tiempo, la Comisión lanzó un proyecto piloto para probar su orientación en la práctica.  Las empresas, las administraciones públicas y las organizaciones ya pueden adherirse a la Alianza europea de la inteligencia artificial y recibir una notificación cuando comience el proyecto piloto. Además, los miembros del Grupo de expertos de alto nivel sobre inteligencia artificial ayudarán a presentar y explicar las directrices a los socios pertinentes en los Estados miembros.

Con el creciente uso de la IA en la práctica legal, muchos de los problemas planteados tienen un eco relevante.

Tras varios años de elaboración, las pautas son la versión final de las propuestas hechas en el borrador que se presentó a principios de año, en las que instaron a que la Inteligencia Artificial se centre tanto en el ser humano, como en que fuera fiable.

El grupo de expertos está formado por 52 juristas, abogados, profesores universitarios y representantes de sectores empresariales, siendo la única española Cristina San José, que representa a la Federación Bancaria Europea.

La ambición de la UE es aumentar el gasto en IA a 20 mil millones de euros anuales durante la próxima década.

Respeto al marco jurídico 

La inteligencia artificial fiable debe respetar todas las leyes y reglamentos aplicables, así como una serie de requisitos:

  • Intervención y supervisión humanas: los sistemas de inteligencia artificial deben facilitar sociedades equitativas, apoyando la intervención humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
  • Robustez y seguridad: la fiabilidad de la inteligencia artificial requiere que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de inteligencia artificial.
  • Privacidad y gestión de datos: los ciudadanos deben tener pleno control sobre sus propios datos, al tiempo que los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.
  • Transparencia: debe garantizarse la trazabilidad de los sistemas de inteligencia artificial.
  • Diversidad, no discriminación y equidad: los sistemas de inteligencia artificial deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.
  • Bienestar social y medioambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.
  • Rendición de cuentas: deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados.

Los expertos señalan que: "La IA es una tecnología que es tanto transformadora como disruptiva, y su evolución en los últimos años se ha visto facilitada por la disponibilidad de enormes cantidades de datos digitales, los principales avances tecnológicos en potencia computacional y capacidad de almacenamiento, así como la innovación científica y de ingeniería en métodos y herramientas de inteligencia artificial".

Un impacto positivo

El grupo de expertos reconoce en sus conclusiones "el impacto positivo que los sistemas de AI ya tienen y seguirán teniendo, tanto comercial como socialmente", pero también advierten de que "los sistemas de AI continuarán impactando en la sociedad y en los ciudadanos en formas que aún no podemos imaginar".

Los riesgos más notables incluyen la tecnología de reconocimiento facial, el uso de datos biométricos involuntarios, como la "detección de mentiras [o] evaluación de la personalidad a través de micro expresiones", y la identificación automática que planteaba problemas legales y éticos.

También resaltan "los sistemas clasificatorios de ciudadanos y ciudadanas susceptibles de vulnerar los derechos fundamentales". Cualquier sistema de este tipo debe ser transparente y justo, con mecanismos que permitan desafiar y rectificar las clasificaciones discriminatorias.

"Esto es particularmente importante en situaciones donde existe una asimetría de poder entre las partes", agregaron.

El último ejemplo de riesgo provocado por la IA fue el de los sistemas de armas autónomas letales, como "máquinas de aprendizaje con habilidades cognitivas para decidir quién, cuándo y dónde luchar sin intervención humana".

El grupo de experto concluye afirmando que "es importante construir sistemas de inteligencia artificial que sean dignos de confianza, ya que los seres humanos solo podrán alcanzar sus beneficios con total confianza cuando la tecnología, incluidos los procesos y las personas que están detrás de la tecnología, sean fiables".

Si quieres disponer de toda la información y la opinión jurídica para estar al día, no pierdas de vista a Actualidad Jurídica Aranzadi

 

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.