LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

27/07/2024. 03:15:03

LegalToday

Por y para profesionales del Derecho

IA ¿Amiga o Adversaria?

Abogada y Directora Jurídica de KPI Risk Ethics & Compliance SL

Aunque ya en 1943 se empezó a experimentar y considerar el posible desarrollo de la Inteligencia Artificial, no fue hasta que el matemático británico, Alan Turing, considerado el padre de las ciencias de la computación teórica y de la IA, se hiciera en 1950 la pregunta “¿Las máquinas pueden pensar?”. Tanto el artículo de este matemático llamado “Computing Machinery and Intelligence” como su “Test de Turing”, todavía utilizado hoy, son los elementos que sentaron las bases de la IA tal y como la conocemos hoy.  

La teoría detrás de la IA es que la mente humana puede ser replicada mediante la programación del equivalente al cerebro de un niño, que tiene relativamente pocos procesos y, posteriormente, influenciarla con “educación y otras experiencias”.

Pero como todos los adelantos tecnológicos y científicos, la IA no sólo aporta grandes beneficios a la humanidad, sino que, utilizada de modo indebido, puede causar grandes daños, al igual que el cuchillo, que puede ser utilizado para cocinar o para matar.

Y es en este contexto en el que el legislador ha visto la necesidad de controlar múltiples aspectos de la IA para garantizar su utilización ética y adaptada a los principios y valores jurídicos de la UE.

La Comisión de la UE creó un comité de expertos que en abril de 2019 publicó directrices para desarrollar una IA fiable, enumerando los siete requisitos esenciales de la misma, a saber:

  • Acción y supervisión humanas;
  • Solidez técnica y seguridad;
  • Gestión de la privacidad y de los datos;
  • Transparencia;
  • Diversidad, no discriminación y equidad;
  • Bienestar social y medioambiental;
  • Rendición de cuentas.

Durante la segunda mitad de 2019, 350 organizaciones probaron esta lista y enviaron sus observaciones. Una consideración importante del resultado de este período de consultas es que, si bien muchos de los requisitos están ya recogidos en los regímenes jurídicos o reguladores de los diferentes estados miembros, los relativos a transparencia, seguimiento y supervisión humana no se contemplan de manera específica en la legislación en vigor en numerosos sectores económicos.

La propuesta de Reglamento actual refleja el trabajo que la UE viene realizando en esta materia y que constituiría la primera ley a nivel mundial que aborda específicamente los retos de la IA y cuyo objeto principal es reducir al mínimo la discriminación algorítmica y los efectos nocivos de la misma.

Como es obvio, los desarrolladores de IA ya están sujetos a la legislación europea, por ejemplo, en materia de derechos fundamentales, como son los artículos 21, 23 y 26 de la Carta de los Derechos Fundamentales de la UE, a la protección de datos y privacidad gracias al Reglamento General de Protección de Datos, a la protección de los consumidores y a las normas sobre seguridad de los productos y responsabilidad civil.    

Resulta interesante que la propuesta de Reglamento haya utilizado un enfoque basado en los riesgos en base a los usos de la misma y haya establecido diferencias según generen i) un riesgo inaceptable ii) un riesgo alto y iii) un riesgo bajo o mínimo.

En lo referente a la IA de riesgo inaceptable, en su Título II introduce un listado de aquellas prácticas prohibidas por ser consideradas contrarias a los valores de la UE, englobando algunas con gran potencial para manipular a las personas mediante técnicas subliminales. Este punto me parece de gran valor, ya que la experiencia nos ha mostrado la enorme peligrosidad que esto supone, no sólo para la integridad moral de las personas sino también para la supervivencia misma de las democracias. En los últimos tiempos hemos sido testigos del gran potencial de manipulación que pueden tener herramientas de IA entrenadas para tal fin.  La propuesta también prohíbe que las autoridades públicas realicen calificación social con IA con fines generales y el uso de sistemas de identificación biométrica remota en tiempo real en espacios de acceso público con fines de aplicación de la ley.       

La IA considerada de bajo riesgo está sujeta a menos requisitos y controles ya que no es susceptible de infligir daños a sus usuarios, como sería el supuesto de que Netflix se equivocara en la selección de películas o programas que sugiere al usuario. 

 Y una IA de alto riesgo permitida en los mercados de la UE pero para la que, a mi juicio correctamente, ha visto necesario introducir controles especiales y estar sometida a evaluación de conformidad ex ante y que en el Anexo III vienen enumerados del siguiente modo:

  1. Identificación biométrica y categorización de personas físicas
  2. Gestión y funcionamiento de estructuras esenciales
  3.  Educación y formación profesional
  4. Empleo, gestión de los trabajadores y acceso al autoempleo
  5. Acceso y disfrute de servicios públicos y privados esenciales y sus beneficios
  6. Asuntos relacionados con la aplicación de la Ley
  7. Gestión de la migración, el asilo y el control fronterizo
  8. Administración   y procesos democráticos 

Como podemos observar, este listado incluye todos aquellos sistemas que supongan un alto riesgo para la salud, los derechos fundamentales y la seguridad. No obstante, la clasificación de alto riesgo no depende únicamente de la función que lleve a cabo la IA, sino también de la finalidad específica y de las modalidades para las que se use dicho sistema. Esta lista podría ser ampliada en el futuro para adaptarse a los nuevos usos y aplicaciones de IA.

Por todo lo anterior, resulta imprescindible examinar qué elementos son los que necesitan ser observados, analizados y controlados a priori para conseguir una IA ética.

En primer lugar, programadores y creadores. Resulta imprescindible no sólo que los profesores de la IA sean diversos, sino que además tengan un código ético y moral incorporado. Deberán representar a todos los grupos sociales, para que todos nos sintamos representados y para que ésta comparta los valores de la UE. La IA se encuentra en estos momentos en el nivel de su infancia. Y es ahora, cuando, como padres responsables debemos entrenarla con los valores éticos y morales con los que deseamos que ella nos trate a nosotros en el futuro no muy lejano. Como eduquemos nosotros a la IA, así nos tratará ella a nosotros.  Una IA bien entrenada, es aquella que ha evitado el “overfitting”, o sea, que ha sido expuesta a una infinidad de realidades y experiencias lo que evita que esté encorsetada y que sea poco flexible a la hora de resolver cuestiones.        

En segundo lugar, datos. La IA se alimenta de enormes cantidades de datos para poder aprender y mejorar los procesos de toma de decisiones. Por este motivo, es imprescindible que se controle la calidad de los datos, así como el origen de los mismos y su naturaleza. La naturaleza de los datos que hayan sido recogidos no sólo puede mostrar, sino que además puede anticipar los efectos secundarios que podría tener la IA que vaya a utilizarlos. Por ejemplo, si se hubieran recogido grandes cantidades de datos genéticos, es obvio que esa herramienta podría presentar un riesgo para la salud. Si se hubieran recogido grandes cantidades de datos sobre ideologías, esa herramienta podría suponer un gran riesgo para la democracia, o para la seguridad del Estado.

Por este motivo, estimo que los datos deberían haber jugado un papel más destacado en el desarrollo de este Reglamento.

Este tema preocupa también a otros expertos en esta tecnología y a empresas que trabajan en el ámbito, como se vio el pasado 15 de febrero en la III Edición de LIDEResA, evento organizado por la agencia iMADES Communication, en el que se debatió, una vez más, la necesidad de aplicar la ética en la IA para conseguir una tecnología igualitaria, inclusiva y representativa y, en líneas generales, un entorno tecnológico más justo y responsable. No en vano, algunas de las situaciones que hay que resolver en relación con el desarrollo y uso de esta tecnología son los sesgos de género que podrían contener los algoritmos para evitar la discriminación.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.