LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

02/03/2024. 13:54:07

LegalToday

Por y para profesionales del Derecho

Ley de Inteligencia Artificial y Derecho Penal. El caso State v. Loomis como ejemplo

Jurista de Instituciones Penitenciarias

Psicólogo II.PP

Llevamos tiempo preguntándonos qué es y a dónde nos lleva la inteligencia artificial. La luz verde a la regulación específica sobre esta materia en el seno de la Unión Europea pone el foco de atención, más si cabe, en una realidad nueva de la que conocemos poco y parece que se nos escapa de las manos. Frente al determinismo tecnológico que nos envuelve, nos preguntamos si el camino escogido es el correcto o si estamos aceptando pulpo como respuesta. Retrocedamos unos años para valorar un caso penal ante el Tribunal Supremo de Wisconsin en el que se utilizó inteligencia artificial (COMPAS) para denegar a una persona reincidente el beneficio de suspensión de su condena (State v. Loomis, 2016). En la resolución, se da por buena la utilización de la herramienta con ciertas restricciones: no puede utilizarse en la imposición de la condena ni la decisión sobre su dureza; no puede ser por sí misma el elemento determinante de ninguna decisión; y su uso ha de estar precedido de una advertencia al tribunal sobre sus limitaciones técnicas. Al respecto, nos planteamos las siguientes cuestiones.  

En primer lugar, resulta un tanto ilusorio limitar el uso del COMPAS a la toma de determinadas decisiones -entendemos que por sus propias limitaciones-, sin tener en cuenta la interrelación que se da per se en materia penal y penitenciaria, entre todas las decisiones que se adoptan a lo largo de un proceso. Si atendemos al supuesto de hecho abordado en la sentencia, es cierto que el uso de la inteligencia artificial se limita a la concesión o no de la suspensión de la condena impuesta. Sin embargo, se trata de una decisión que innegablemente afecta el derecho a la libertad y, aunque sea de manera indirecta, tiene clara relación con la condena impuesta y la dureza de la misma. 

En segundo lugar, destacamos esta reflexión de MARTÍNEZ GARAY (REPC, 2018, p. 10), quien, analizando la sentencia que referimos, reflexiona como “el caso pone sobre la mesa la contradicción que plantea el evidencebased sentencing: por un lado, permite incorporar información que a juicio del Tribunal es rigurosa y relevante para fijar la condena, pero por otro lado presenta riesgos para los derechos del acusado y para el correcto funcionamiento del sistema judicial. Dicho dilema debería resolverse como en Derecho se resuelven estas cosas: si los riesgos para los derechos fundamentales del acusado son reales y no pueden ser evitados por otros medios, para protegerlos habrá que prescindir de las ventajas que pudiera suponer la incorporación de valoraciones de riesgo en la fijación de las condenas (de la misma forma que por ejemplo se prohíbe utilizar como medio de prueba una confesión obtenida en una intervención telefónica realizada sin autorización judicial, por mucho que pudiera ser decisiva para revelar la verdad de lo acontecido)”. Sin embargo, la autora refiere lo lejos que estamos de alcanzar y poder aplicar esta lógica de actuación. Y es que, uno de los principales escollos para ello lo constituye justamente el hecho de la naturaleza de secreto de empresa del algoritmo empleado. Aspecto que impide desvelar tanto cómo se ponderan los factores considerados, como el cálculo efectivo de las puntuaciones que se obtienen. De este modo, un principio de actuación que puede ser adecuado desde la perspectiva empresarial, choca frontalmente con el status garantista que inspira el procedimiento penal y que se basa, entre otras, en la mayor transparencia posible de las decisiones y fundamentos que se adoptan y pueden afectar los derechos fundamentales.  

Para ser conscientes del cambio de paradigma que esto supone y paulatinamente estamos aceptando, nos sirve el ejemplo que la misma autora refiere en su trabajo. Sin duda es paradójico que no se consideren las escuchas telefónicas determinantes para la atribución de un delito, si éstas han sido obtenidas indebidamente, y, sin embargo, asumamos como normal los resultados de valoraciones de riesgo cuyo procedimiento de elaboración desconocemos. Pasamos así de un esquema en el que las garantías jurídicas trataban de aportar seguridad, aunque en ocasiones ésta fuera ficticia -si volvemos a las escuchas, aunque no se consideren, el conocimiento del delito es ya inevitable-, a otro, en el que partimos de la inseguridad y el desconocimiento de los instrumentos de decisión empleados, aceptando los mismos.   

Lo anterior, relevante por sí mismo, se torna fundamental si consideramos los resultados del reciente y brillante estudio publicado en Scientific Reports, “Humans inherit artificial intelligence biases” (Vicente y Matute, 2023), donde se muestra de manera empírica los fallos valorativos a los que la inteligencia artificial nos conduce. La inteligencia artificial no sólo es imperfecta, sino que esta imperfección resulta oscura. Lo que hace que el derecho a la defensa se convierta más aún en una carrera de obstáculos. No es lo mismo defenderse de un informe abierto que explica los factores favorables y desfavorables que motivan un acto judicial y/o administrativo concreto, que contradecir el resultado de un algoritmo que resulta en muchos casos oscuro para los propios profesionales que lo aplican. Parémonos a pensar si este es el derecho que queremos. Y, sobre todo, no esperemos a que pasen años para llegar a un debate de fondo alejado de intereses empresariales.  

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.