LegalToday

Por y para profesionales del Derecho

Portal jurídico de Aranzadi, por y para profesionales del Derecho

28/03/2024. 21:48:58

LegalToday

Por y para profesionales del Derecho

EL DERECHO DE IMPUGNACIÓN DE VALORACIONES DEL ART. 13 DE LA LOPD

Evaluación de perfiles, sí, pero cómo

asociado Senior del área de Privacidad y Compliance de ECIJA

Hace tantos años que estamos acostumbrados a manejar la Ley Orgánica 15/1999, de 13 de diciembre, de Protección de Datos de Carácter Personal como un hecho cotidiano, que quizás muchos no hayan reparado en el detalle de que es una de las pocas leyes orgánicas que no tiene exposición de motivos.

Símbolo de la @

A falta de un marco interpretativo emanado de la propia dicción del legislador, la doctrina ha venido acudiendo al cuerpo programático de la norma inmediatamente precedente para encontrar explicación contextual acerca del sentido y finalidad del texto. Así, en la la exposición de motivos de la ley del 1992 (Ley Orgánica 5/1992, de 29 de octubre, de Regulación del Tratamiento Automatizado de los Datos de Carácter Personal) se nos aclaraba la diferencia crucial que existe entre el derecho a la protección de datos y el ya consagrado derecho a la intimidad, y el porqué de la necesidad de introducir una pieza legislativa específica para contemplarlo.

El derecho a la intimidad personal y familiar y al honor eran derechos de primera generación que ya tenían arraigo jurídico, pero ¿qué hecho diferencial venía a suponer la protección de datos personales como factor añadido a la intimidad que explicara la necesidad de una legislación especial? El preámbulo de la LO 5/1992 apuntaba que a diferencia del derecho a la intimidad, la privacidad constituye un conjunto, más amplio, más global, de facetas de su personalidad que, aisladamente consideradas, pueden carecer de significación intrínseca pero que, coherentemente enlazadas entre sí, arrojan como precipitado un retrato de la personalidad del individuo que éste tiene derecho a mantener reservado. Obviamente cuando se hace hincapié en el detalle de que elementos insignificantes e inocuos, convenientemente sistematizados permiten obtener retratos precipitados de la personalidad se está haciendo referencia a la computación. La introducción del microprocesador en la economía moderna origina un coste marginal al procesar información, de manera que se hace cada vez más apetecible para las empresas procesar grandes cantidades de datos de por sí inocuos, para extraer conclusiones y pronósticos de conducta, muchas veces útiles, que serían impensables en la época del papel, porque su coste lo desincentivaba.

Muchas veces estos perfiles serían útiles y fiables, ¿pero necesariamente ciertos y ajustados a la realidad de los hechos?

Siendo aquél el sentir de la norma, y que la misma se haya promulgado precisamente para salvaguardar nuestra libertad informática y protegernos del cliché que de forma unilateral e injustificable se estableciera contra nosotros, es curioso que situados a día de hoy, un artículo como el 13.2 de la LOPD, según el cual el afectado podrá impugnar […] decisiones privadas que impliquen una valoración de su comportamiento, cuyo único fundamento sea un tratamiento de datos de carácter personal que ofrezca una definición de sus características haya sido relativamente de tan escasa aplicación, de tal manera que jurisprudencialmente se desconoce en gran medida su sentido exacto.

¿Qué significa exactamente que el afectado pueda impugnar un acto privado cuyo único fundamento sea un tratamiento de datos de carácter personal que ofrezca una definición de sus características? Hay industrias enteras que descansan precisamente sobre este proceder. El establecimiento de primas por parte de las compañías aseguradoras se realiza siempre con base en un cómputo actuarial en el que un software precisamente maneja muchas variables de segmentación personal.

¿El particular podría atacar la ponderación de factores que efectúa el algoritmo sobre la base de que el mismo genera asunciones inexactas sobre su perfil de riesgo por las que se ve afectado de forma imperativa? ¿Implica ello que toda decisión de perfilamiento automatizada debe operar siempre como presunción iuris tantum contra la que el particular tenga derecho a alzarse demostrando mejor verdad para que ésta sustituya el efecto jurídico que otramente la presunción desplegaría?

Las decisiones automatizadas sobre nuestro perfil personal nos resultan relativamente poco habituales en nuestra vida cotidiana, pero el 2.0 tardío y el 3.0 invertirán muy probablemente esta situación. Cada vez más son sistemas automatizados y no sujetos de carne y hueso los que deciden si concedernos un crédito, nuestro diagnóstico médico, nuestra expectativa de salario, y nuestra idoneidad como candidatos, hasta el punto que existen blogs enteros dirigidos a ofrecer recomendaciones a los postulantes acerca de cómo formular mejor el propio CV para sortear las cribas de un primer seleccionador no operado por un agente humano http://mashable.com/2013/11/11/resume-robots/.

De hecho para dilucidar si una situación análoga a la nuestra resulta ponderada de forma errónea o injustificadamente perjudicial para nosotros por un algoritmo será imprescindible conocer los resultados obtenidos por sujetos situados en una posición de hecho similar, lo cual no siempre es posible. ¿Significará esto que el ciudadano tenga derecho a exigir siempre la exhibición pública del logaritmo para evaluar con claridad si el mismo contiene baremos que le discriminan injustificadamente? Muchas veces estas fórmulas son activos susceptibles de protección como secreto empresarial, pues constituyen precisamente el corazón tecnológico de un programa informático. ¿Deberán entonces emitir las empresas informes de transparencia como hace Google para salvaguardar la confidencialidad de sus algoritmos a la vez que dar justa respuesta a las demandas públicas?

Bienvenidos a las preguntas que empiezan con la era tecnológica que hemos iniciado.

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.