LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

19/04/2024. 18:43:00

LegalToday

Por y para profesionales del Derecho

Inteligencia artificial en el medio penitenciario

Jurista de Instituciones Penitenciarias

Psicólogo II.PP

Cada vez se habla más de la IA, la inteligencia artificial, como paradigma de nuestro presente y futuro. En el ámbito de la Unión Europea, que es el que va a marcar nuestro propio ámbito a medio y largo plazo, hay un claro interés por alcanzar una regulación del uso de los algoritmos que otorgue seguridad jurídica y no atente contra derechos consolidados. Tal y como se recoge en la página del Parlamento Europeo, “los eurodiputados quieren que la futura legislación sobre inteligencia artificial en la UE promueva la innovación, garantice la seguridad y proteja los derechos humanos”. Si nos desplazamos al ámbito de actuación más específico del Consejo de Europa, son varios las iniciativas y documentos elaborados por esta institución en que se recogen las premisas básicas para el uso de la inteligencia artificial acorde a los derechos más básicos. Pero antes de nada, nos interesa saber qué es la IA y a qué se debe su interés para la psicología y el derecho.

En cuanto a lo primero, la inteligencia artificial se define como es la inteligencia llevada a cabo por máquinas capaces de desarrollar funciones cognitivas como percibir, razonar, aprender y resolver problemas. Por hacerlo más plástico se trata de sistemas de interpretación de datos para la realización de tereas previamente definidas de una forma que encaja con la realidad que abordan. El interés de estas técnicas para ciencias prácticas como las señaladas, es alto. Su uso se está implantado y su impacto en el estatus jurídico de los administrados no puede pasar desapercibido. Como acertadamente señala Eduardo Gamero Casado en su artículo “Necesidad de motivación e invalidez de los actos administrativos sustentados en inteligencia artificial o en algoritmos”, publicado y disponible en el imprescindible blog Almacén de derecho, la IA puede resultar útil, pero no se puede dejar de lado los múltiples problemas que también presenta. Como apunta el autor, “el artículo 35 de la Ley 39/2015 de 1 de octubre, de Procedimiento Administrativo Común, todos los actos deben motivarse, sin necesidad de especificar su soporte o el proceso mediante el que se dictan. No se establece en ninguna parte una excepción para actos basados en algoritmos o IA y, por tanto, tal excepción no existe. El problema reside entonces en determinar cómo deben motivarse estos actos, no en discutir si deben motivarse o no”. Y para ello, por la especialidad de la IA, si bien “el propio acto administrativo dictado en aplicación de algoritmos o IA no tiene que incorporar necesariamente los pormenores de la programación del sistema ni la acreditación de su verificación de adecuado funcionamiento, pero sí debe suministrar información suficiente para que el interesado pueda localizar y obtener esos datos, o bien haber dispuesto de ellos durante la tramitación del procedimiento administrativo, constando en el expediente o en otras fuentes de información a su alcance”. Esto es, el algoritmo para poder ser discutido, ha de ser conocido por los ciudadanos a los que afecta.

En el medio penitenciario, el instrumento que ha servido de avanzadilla en el uso de la inteligencia artificial es la Tabla de Variables de Riesgo (TVR). Regulada en la Instrucción 1/2012, pero con un empleo mucho anterior, se trata de un algoritmo que trata de coadyuvar a la Administración Penitenciaria en la toma de decisiones relativas a las salidas de permiso ordinario de las personas privadas de libertad. En concreto y a través de la introducción de determinadas variables de riesgo, se alcanza una tasa de posible mal uso de la salida cuya concesión se valora –sea esto bien en forma de comisión de nuevo delito, bien de quebrantamiento de la condena-. Dado el avance aparentemente imparable de la inteligencia artificial, el empleo de esta técnica actuarial a lo largo de los últimos años, puede darnos una idea de los peligros que enfrentamos y de cómo atajarlos.

En primer lugar, en cuanto a la referida necesidad de motivación, los resultados que arroja la TVR no son opacos sólo para los internos, principales interesados en este procedimiento administrativo que tanto les afecta, sino también para los abogados que los defienden que no tienen información suficiente para entender el algoritmo que sustenta la toma de decisión. Si algo no se conoce, no se puede discutir, provocando una clara minoración del derecho a la tutela judicial efectiva del art.24.1 CE.  

A su vez, otro aspecto a mejorar, es el relacionado con el art.14 CE. Siguiendo al autor referido, no se “puede soslayar que ciertos sesgos en la programación de estos sistemas vulneran directamente el derecho a no incurrir en discriminación”. La TVR contempla una clara sobrerrepresentación del riesgo que implica la variable de extranjería en el riesgo de mal uso de la salida. Su mera consideración arroja un mínimo de 85% de riesgo si el interno en cuestión es ciudadano de la Unión Europea. Riesgo que alcanza el 90-100% si consideramos a internos de fuera de la UE.

Finalmente, y en íntima relación con el carácter individualizador que necesariamente tiene nuestro sistema de ejecución, se ha de evitar que los resultados del empleo de este tipo de técnicas se impongan sobre la realidad individual que sólo el humano observa. La máquina, la técnica, nos podrá decir que un interno muestra un riesgo alto de quebrantamiento. El sistema ha de dotarse de cauces procedimentales que permitan exponer y respaldar los argumentos concretos que minimizan dicho riesgo. La máquina puede sumar en el proceso de valoración humano, pero su poder no puede llegar a ser tal que se imponga al mismo hasta el punto de anularlo. 

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.