LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

26/06/2025. 17:43:07
26/06/2025. 17:43:07

LegalToday

Por y para profesionales del Derecho

IA y responsabilidad penal. ¿Conceptos compatibles?  

Puerto Solar Calvo

Jurista de Instituciones Penitenciarias

Pedro Lacal Cuenca

Psicólogo II.PP

El pasado 9 de octubre de 2024, el Comité de Ministros del Consejo de Europa adoptó la Recomendación CM/Rec (2024) 5 del Comité de Ministros a los Estados miembros relacionada con aspectos éticos y organizativos del uso de la inteligencia artificial relativos a las tecnologías en los servicios de prisiones y probation. Su lectura es interesante por la propia relevancia del asunto que se aborda y que la Recomendación destaca en su parte introductoria. En concreto, el uso cada vez mayor de datos biométricos y algoritmos en los sistemas criminales. Especialmente, se apunta al impacto que la inteligencia artificial puede suponer en instituciones totales como las cárceles, por sí mismas intensamente relacionadas con la restricción de derechos fundamentales. Por último, se advierte de la presencia ineludible del sector privado en este tipo de desarrollos tecnológicos. Sector, que habrá de someterse a estándares de control ligados a la ética y el respeto de los derechos humanos, primando las finalidades del sistema penal -lograr la rehabilitación del condenado y la seguridad de la comunidad- sobre el beneficio empresarial. La Recomendación que analizamos se conjuga necesariamente con el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial (Reglamento de Inteligencia Artificial). El mismo configura una estructura normativa que se asemeja a la del Reglamento (UE) 2016/679, en materia de protección de datos, para establecer los requisitos básicos en cuanto al desarrollo de sistemas inteligentes.

La recomendación se divide en seis apartados: I. Provisiones Generales; II. Definiciones; III. Principios básicos; IV. Protección de datos y privacidad; V. Uso de inteligencia artificial y tecnologías digitales, dividido a su vez en tres subapartados -Uso para la seguridad y el buen orden, Uso para el establecimiento de sistemas de predicción del riesgo, rehabilitación y reintegración, Uso para la selección y perfeccionamiento del personal-; VI. Investigación, desarrollo, evaluación y revisión regular. A pesar de su inevitable interrelación, nos centramos por su interés para las personas privadas de libertad, en el uso de la inteligencia artificial en sistemas de gestión de personas privadas de libertad, en sistemas de determinación del riesgo y para la rehabilitación y reinserción. En cuanto a los sistemas de gestión, la Recomendación destaca la utilidad de la inteligencia artificial para la mejora de los mismos, pudiendo proveer de alertas en caso de posibles incumplimientos, pero siempre bajo el paraguas de que cualquier decisión ha de ser tomada por el ser humano. Igualmente, apunta como básico, partir de herramientas suficientemente consistentes en términos de precisión y evitación de los sesgos. Estos mismos principios -la evitación de los sesgos y la prevalencia de la decisión humana- se recogen en cuanto a la gestión del riesgo y las actuaciones tendentes a la rehabilitación, resaltando respecto de estas últimas que la inteligencia artificial en ningún caso puede sustituir el contacto humano y las entrevistas personalizadas.

De entre todas estas aplicaciones, nos interesa especialmente la relativa a la gestión y predicción del riesgo. De un tiempo a esta parte, los avances en inteligencia artificial parecen traducirse en avances paralelos en la capacidad de predecir lo que los seres humanos hacemos. Nos preguntamos si considerar a las personas como previsibles no supone negar de base su capacidad para ser imputables. El camino que estamos andando aceptando  el uso de herramientas de valoración del riesgo de la conducta humana, asume esa previsibilidad con una finalidad concreta: coadyuvar en la toma de decisiones que tienen impacto en los derechos de las personas en un proceso penal -principalmente, el VioGen- o dentro de procedimientos penitenciarios -el supuesto de la Tabla de Variables de Riesgo y el RisCanvi-. Sin embargo, no puede partirse de la previsibilidad de la conducta humana para algo concreto, si no se corresponde con la categoría que se emplea para la determinación de la propia responsabilidad penal. Igualmente, ¿tiene sentido creer en la función de prevención general del derecho penal? De nuevo, si nuestra conducta es previsible, esa función de la pena deja de tener cualquier tipo de efecto y necesidad. En este sentido, desde la perspectiva del reproche penal, PUNDIK refiere que “el derecho penal debería tratar a las personas como si poseyeran libre albedrío impredecible, exista este o no, porque el uso de pruebas predictivas con propósitos de condena penal socava la efectividad del reproche”.

Además de lo anterior, creemos sinceramente que si bien la capacidad de las técnicas inteligentes para predecir la actuación humana es limitada; más aun lo es la capacidad humana para contradecir sus resultados. Esto es, como principio, el que la Recomendación diga que el criterio humano ha de prevalecer sobre el de la máquina, puede parecer suficiente. Sin embargo, en la práctica, el dato que obtengamos del uso del algoritmo tendrá una prevalencia casi inevitable. ¿Quién se atreverá a contradecir a herramientas inteligentes? La inercia llevará a lo contrario: la cómoda toma de decisiones en base a la inteligencia artificial donde, en caso de error -en forma, por ejemplo, de delito cometido en permiso-, siempre tendremos un algoritmo al que responsabilizar.

Finalmente, un último inciso. Parece que esto no es nada grave, polémico o verdaderamente relevante pues, al fin y al cabo, afecta a quien ya ha sido condenado o ha tenido algún incidente policial. Personas sobre las que, en general, se presume socialmente que hay que tener determinadas cautelas. Como desmontar un prejuicio es más costoso que romper un átomo (Einstein), no vamos a perder energía en ello. Sólo advertimos que lo que se acepte para el sistema penal acabará impregnando otros ámbitos de la convivencia social. Aunque creamos lo contrario, los de dentro y los de fuera, no somos tan distintos.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.