
Una de las cuestiones que ocupan el debate académico e intelectual sobre la Inteligencia Artificial tiene que ver con su naturaleza intrínseca y la capacidad o no de transcender del propio ser humano al que debe su existencia. En su último ensayo titulado “Civilización Artificial”, el profesor José María Lassalle alerta sobre la posibilidad, a su juicio no tan remota, de que la Inteligencia Artificial alcance un estado de consciencia en el que se repliquen los mapas mentales del ser humano y adquiera, de manera sintética y extremadamente potenciada, cualidades hasta ahora reservadas exclusivamente al cerebro natural. Esto es lo que haría, según Lassalle, extremadamente peligroso considerar la Inteligencia Artificial como una tecnología facilitadora.
Estemos o no de acuerdo con este planteamiento – que necesariamente nos debe hacer reflexionar y ponernos en guardia acerca del futuro – lo cierto es que llegar a este escenario dependerá, en gran medida, de cómo evolucionen estas tecnologías; y aquí confrontan dos posiciones: la representada por Lassalle y otros de que es un camino imparable alentado por la lucha por el poder supremo entre Estados Unidos y China; y la de oráculos tecnológicos como Gartner y otros expertos que alertan de un posible tercer invierno de Inteligencia Artificial en un futuro no muy lejano.
Al margen de unas u otras posiciones, lo que es indudable es que la Inteligencia Artificial interpela numerosos aspectos de nuestra vida, tendrá un profundo impacto en todos los sectores de actividad y es una tecnología con profundas derivadas. No es casualidad que desde el primer momento que la Unión Europea empezara a dibujar su estrategia el Grupo de Expertos de Alto Nivel sobre IA (HLEG-IA) que convocó en 2018 pusiera el foco en la necesidad de asegurar una IA confiable por los profundos impactos sobre derechos fundamentales que un uso descontrolado de la misma pudiera acarrear.
La estrategia europea pasa, desde aquel momento, por impulsar la IA desde un enfoque utilitarista anglosajón basado en aprovechar todo su potencial, pero bajo estrictos principios éticos y regulatorios. Son importantes las dos dimensiones ya que, aunque la Ley de IA propone un marco de gestión de riesgos que impone obligaciones legales según el uso que se le vaya a dar al sistema algorítmico, se trata de establecer unas pautas de cómo proceder para situar siempre a la persona en el centro y asegurar, más allá de la legalidad, una serie de principios que respeten los derechos fundamentales: supervisión humana, solidez técnica, gestión de la privacidad, transparencia o rendición de cuentas.
Dentro de este catálogo de derechos y requisitos destaca sobre manera el que tiene que ver con la igualdad y la no discriminación, una batalla que la sociedad viene dando en las últimas décadas y que un uso naif, inconsciente o irresponsable de los sistemas algoritmos puede desbaratar. Que los sistemas expertos ofrezcan soluciones sesgadas o discriminen involuntariamente a determinadas personas o colectivos por razones de raza, edad, sexo, capacidad, renta, lugar, etc. es una realidad; no tenemos más que hacer un prompt amplio a cualquier sistema de IA generativa (ChatGPT, Gemini, CoPilot) y encontraremos como las respuestas reproducen por defecto patrones identitarios muy alejados de la diversidad esperada.
Los sesgos que introduce un entrenamiento que no recoja una perspectiva amplia y diversa o datos que no hacen sino reflejar situaciones del pasado donde no existía la sensibilidad necesaria por la igualdad y no discriminación pueden hacernos retroceder si no se adoptan medidas. Algunas ya se han puesto sobre la mesa: una gobernanza más inclusiva de los datos y el desarrollo de los sistemas, análisis de impacto a los que obligará la nueva Ley de IA y el artículo 23.1 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación, los propios sellos de calidad que están aún por desarrollar o las exigencias de transparencia en el diseño y capacidad de interpretación de las decisiones algorítmicas.
El escenario de hiper automatización que nos depara la penetración de la Inteligencia Artificial hará inevitablemente que las personas tengan que explotar su dimensión más humana si no quieren verse desbordadas. Un objetivo que va unido a ser capaces de gobernar desde una perspectiva humanista este artefacto tecnológico que nos haga avanzar como sociedad y no retroceder.
La ética de los algoritmos IA, a debate en el III Encuentro Aranzadi LA LEY Mujeres por derecho
Por ello son necesarios los debates como los que se producirán en el III Encuentro Aranzadi LA LEY Mujeres por Derecho que se celebrará el próximo 11 de junio en Madrid y en el que intervendré como ponente en la mesa de debate Ética de los algoritmos de la IA. Para estar alerta y poner en valor la necesidad de herramientas éticojurídicas que ayuden a que ese “manto de objetividad” que, como virtud atribuía Surden a una tecnología aparentemente más fría y neutra, no haga descarrilar los esfuerzos por la igualdad y no discriminación cronificando y amplificando unos sesgos que creíamos superados.
RESERVA TU PLAZA PARA ACUDIR AL ‘III ENCUENTRO ARANZADI LA LEY MUJERES POR DERECHO’
