La Recomendación CM/Rec (2024) 5 del Comité de Ministros a los Estados miembros, sobre el uso de la inteligencia artificial relativos a las tecnologías en los servicios de prisiones y probación, adoptada el 9 de octubre de 2024, se divide en seis apartados: I. Provisiones Generales; II. Definiciones; III. Principios básicos; IV. Protección de datos y privacidad; V. Uso de inteligencia artificial y tecnologías digitales, dividido a su vez en tres subapartados -Uso para la seguridad y el buen orden, Uso para el establecimiento de sistemas de predicción del riesgo, rehabilitación y reintegración, Uso para la selección y perfeccionamiento del personal-; VI. Investigación, desarrollo, evaluación y revisión regular. Si atendemos a sus principios básicos, los puntos 3, 5 y 6 de los mismos, determinan aspectos generales a los que toda herramienta de inteligencia artificial ha de someterse. En concreto: la evitación de sesgos, la trasparencia de sus mecanismos y el control humano de su uso con la posibilidad de defensa frente al mismo. Los mismos recuerdan a los que la Recomendación emplea cuando describe los usos a los que la inteligencia artificial puede servir. Sin embargo, creemos que el principio básico del punto 4 del texto es de radical importancia en relación a los instrumentos de valoración del riesgo. En concreto, determina que “la IA y las tecnologías digitales relacionadas deben utilizarse únicamente de una manera que implique el menor impacto negativo sobre los derechos humanos y si su uso previsto y su intensidad corresponden al propósito y los resultados esperados. Además, esto debería hacerse solo si es estrictamente necesario (principio de proporcionalidad, eficacia y necesidad de la IA)”.
Considerando este principio básico y teniendo en cuenta la forma de funcionamiento de las herramientas para valoración del riesgo futuro, pareciera que la Recomendación sirve para evitar sus efectos negativos. Sin embargo, no podemos menos que destacar una contradicción interna de estas herramientas que hace que la Recomendación se aparte necesariamente de su uso. Y es que, por definición, los instrumentos de valoración de riesgo maximizan los factores negativos que concurren en relación a las acciones futuras que tratan de preverse; asumen la existencia de falsos positivos; y, con todo ello, escogen una estrategia de funcionamiento per se contraria a la que determina la Recomendación que comentamos -de forma similar, las SSTC 6/2020, de 27 de enero, 18/2020, de 10 de febrero y 164/2021, de 4 de octubre -. Dicho de otro modo, es altamente improbable que los resultados de estos instrumentos de predicción del riesgo tiendan a restringir lo menos los derechos fundamentales de las personas privadas de libertad y puedan adaptarse a este principio básico que la Recomendación exige. No se trata por tanto de mejorar su transparencia, sino que la Recomendación discute la base de estos sistemas, su punto de partida.
Más allá de lo anterior, también nos preguntamos si considerar a las personas como previsibles no supone negar de base su capacidad para ser imputables. El camino que estamos andando cuando aceptamos el uso de herramientas de valoración del riesgo de la conducta humana, asume esa previsibilidad con una finalidad concreta: coadyuvar en la toma de decisiones que tienen impacto en los derechos de las personas en un proceso penal o dentro de procedimientos penitenciarios. Sin embargo, no puede partirse de la previsibilidad de la conducta humana para algo concreto, si no se corresponde con la categoría que se emplea para la determinación de la propia responsabilidad penal. Igualmente, ¿tiene sentido creer en la función de prevención general del derecho penal? De nuevo, si nuestra conducta es previsible, esa función de la pena deja de tener cualquier tipo de efecto y necesidad.
Finalmente, parafraseando a Chomsky, que no nos vendan la moto; o dicho de otro modo, llamemos a las cosas por su nombre: el uso de estas herramientas deriva en una cómoda desresponsabilización de los profesionales que estamos implicados en su uso. En definitiva y a la postre, siempre podemos remitirnos al instrumento que ha ayudado a fundamentar nuestra decisión. Y de nuevo, además de la opacidad y los problemas relativos a la tutela judicial efectiva que esto conlleva, con ello llegamos a otra contradicción en relación a otro de los principios básicos de la Recomendación: el relativo al control humano de su uso. La inercia administrativa va a derivar en que no contradigamos a la máquina. Pero es más, y he aquí el quid de la cuestión, de verdad, sinceramente, ¿nos atreveríamos a ello?


