nº 979 - 25 de noviembre de 2021
El Parlamento Europeo se posiciona sobre el uso de la IA en el Derecho penal y su utilización por autoridades policiales y judiciales
Fernando J. Biurrun. Consultor Social Media. Fundador Lawandtrends.com
Los derechos y libertades fundamentales consagrados en la Carta deben garantizarse a lo largo de todo el ciclo de vida de la IA
Las personas no solo tienen derecho a ser identificadas correctamente, sino que también tienen derecho a no ser identificadas en absoluto
El pasado 6 de octubre, el Parlamento Europeo aprobó una Resolución relativa al uso de la inteligencia artificial en el Derecho penal y su utilización por las autoridades policiales y judiciales en asuntos penales en la que solicita a la Agencia de los Derechos Fundamentales de la Unión Europea que, en colaboración con el CEPD y el SEPD, elabore directrices generales, recomendaciones y mejores prácticas a fin de especificar en mayor medida los criterios y las condiciones para el desarrollo, el uso y el despliegue de aplicaciones y soluciones de IA para su uso por las autoridades policiales y judiciales.
Además, el PE se compromete a realizar un estudio sobre la aplicación de la Directiva sobre servicios con funciones coercitivas, con el fin de determinar cómo se ha garantizado la protección de los datos personales en las actividades de tratamiento por parte de las autoridades policiales y judiciales, en particular cuando se desarrollen o desplieguen nuevas tecnologías. Por último, pide a la Comisión que examine si es necesaria una acción legislativa concreta para especificar con más precisión los criterios y las condiciones para el desarrollo, el uso y el despliegue de aplicaciones y soluciones de IA por parte de las autoridades policiales y judiciales.
En sus valoraciones, el Parlamento Europeo recuerda el diferente uso que hacen los diferentes Estados miembros de aplicaciones de IA o de sistemas de IA integrados para fines coercitivos y judiciales, lo que obedece en parte a la ausencia de regulación y las diferencias normativas que permiten o prohíben el uso de la IA para determinados fines. Aunque el uso de la IA en el ámbito penal se justifique en reducir determinados tipos de delincuencia y en adoptar decisiones más objetivas, en opinión del PE, esas promesas «no siempre se cumplen».
Además, el PE también recuerda que los derechos y libertades fundamentales consagrados en la Carta deben garantizarse a lo largo de todo el ciclo de vida de la IA y las tecnologías conexas, en particular durante su diseño, desarrollo, despliegue y uso, y deben aplicarse a la garantía del cumplimiento de la ley en toda circunstancia. La IA debe tener a las personas en el centro, debiendo proteger a todos los miembros de la sociedad, siendo no discriminatorios y seguros y respetando los derechos fundamentales.
El Parlamento reconoce que la IA puede ofrecer grandes oportunidades en el ámbito de la garantía del cumplimiento de la ley, en particular en lo que respecta a la mejora de los métodos de trabajo de las autoridades policiales y judiciales y al aumento de la eficacia de la lucha contra determinados tipos de delitos, pero advierte de los riesgos que pueden tener los derechos fundamentales por actividades desproporcionadas como pudiera ser la vigilancia masiva.
En su Resolución el PE concluye que el tratamiento ingente de datos por la IA debe respetar el marco jurídico de la Unión sobre protección de datos y privacidad, siendo la base de cualquier futura reglamentación por el uso de las autoridades policiales y judiciales.
El PE manifiesta la necesidad de que el uso de las aplicaciones de IA se clasifique como de alto riesgo cuando tengan potencial para afectar significativamente la vida de las personas. Así, toda herramienta de IA desarrollada o utilizada por las autoridades policiales o judiciales debe, como mínimo, ser segura, robusta, fiable y apta para su finalidad, así como respetar los principios de minimización de datos, rendición de cuentas, transparencia, no discriminación y explicabilidad, siendo los criterios de necesidad y proporcionalidad los que determinen su desarrollo, despliegue y uso.
Los europarlamentarios piden la supervisión y control democrático de cualquier tecnología basada en IA utilizada por las autoridades policiales y judiciales. Y aunque Estados fuera de la Unión utilicen tecnología de vigilancia masiva que interfiere con el respeto de los derechos fundamentales, la Unión no debería utilízalas.
Asimismo, advierte del riesgo potencial del sesgo y discriminación del uso de aplicaciones de IA, concretamente identifican y clasifican incorrectamente en un número desproporcionado de casos a las personas racializadas, a las personas pertenecientes a determinadas comunidades étnicas, a las personas LGBTI, a los niños y a las personas de edad avanzada, así como a las mujeres; recuerda que las personas no solo tienen derecho a ser identificadas correctamente, sino que también tienen derecho a no ser identificadas en absoluto.
La Eurocámara reconoce el uso de la tecnología de reconocimiento facial por las autoridades, si bien pide el cumplimiento, como mínimo, de los requisitos de minimización de datos, exactitud de los mismos, limitación del almacenamiento, seguridad de los datos y rendición de cuentas, además de ser legal, justo y transparente y perseguir un fin específico, explícito y legítimo que esté definido claramente en la legislación, sin que, por el momento, pueda alcanzar la fiabilidad del ADN o las huellas dactilares en el contexto forense.
Además, solicita la prohibición permanente del uso del análisis y/o reconocimiento automatizado en espacios de acceso público de rasgos humanos como las huellas, ADN, voz u otras señales, así como una moratoria sobre el despliegue de sistemas de reconocimiento facial con fines coercitivos que tengan la función de identificación hasta que las normas técnicas sean plenamente respetuosas, salvo en caso de identificación de víctimas de delitos.
También manifiesta su preocupación por el uso de bases de datos de reconocimiento facial privadas, como Clearview AI, una base de datos de más de 3.000 millones de imágenes que se han recopilado de redes sociales y otros lugares de Internet, incluidas imágenes de ciudadanos de la Unión y pide a los Estados miembros que obliguen a su policía a revelar si hacen uso de esta tecnología. Y lo mismo en cuanto al uso de los datos biométricos para fines de identificación remota, por ejemplo, mediante reconocimiento facial en lugares públicos, así como las puertas automáticas de control fronterizo utilizadas en los controles fronterizos en los aeropuertos. ■