Blog ECIJA 2.0

12

de

Noviembre

Isaac Grauer

asociado Senior del área de Privacidad y Compliance de ECIJA

A propósito de Klout

El artículo analiza problemas legales originados en torno a las nuevas herramientas públicas de análisis de perfiles en redes 2.0. Se traen a colación los curiosos problemas jurídicos inesperados que pueden originar estas herramientas, asociadas a sistemas de inteligencia artificial.


Klout es una herramienta de medición de impacto en entornos 2.0 que atribuye una puntuación de 1 a 100 a los usuarios de redes sociales en función de una serie de parámetros estándar tales como el índice de retweets, el grado en que los usuarios se inscriben en sitios recomendados por el usuario puntuado y toda una serie de indicadores que tratan de cuantificar de la forma más fidedigna posible el impacto de cada individuo en su ecosistema 2.0.

Klout está siendo tan popular que incluso algunos clubes nocturnos estadounidenses eximen de pago o ofrecen acceso a salas VIP a aquellos usuarios cuyo índice en Klout supere determinados umbrales.

Que la valoración del índice de impacto en redes sociales sea usada por entidades privadas para dilucidar la asignación de pases VIP a locales de ocio puede parecer superfluo o incluso ridículo. Pero se conoce del caso de ciertas empresas que van bastante más allá. Se conoce el caso de candidatos que han sido cesados en un puesto de trabajo por tener un índice en Klout demasiado modesto. Los creadores de Klout afirman que el puntaje obtenido en dicha plataforma vendrá a sustituir parcialmente al dinero en un futuro no muy lejano. No es de descartar que así sea.

Es conocido también el curioso incidente que sucedió a propósito del algoritmo interno de Klout, con arreglo al cual el puntaje de Obama, durante unas semanas descendió por debajo del de Justin Bieber, antes de que la empresa admitiese que debía corregir ciertas imperfecciones en su código que, una vez enmendadas tendieron a reflejar más fielmente el índice de impacto real en el entorno 2.0, haciendo que Obama recuperase de nuevo el primer lugar en el ranking de los individuos con un puntaje más elevado a nivel mundial.

Fuera de que este escenario sería un interesante caso de estudio sobre posible responsabilidad civil de prestadores de servicios de sociedad de la información con arreglo a la LSSI -cosa que analizaré en un próximo post- el incidente de Justin Bieber y Obama fue en cierto modo banal. O al menos, no tuvo mayor repercusión.

Pero lleva a formularse la pregunta de hasta qué punto es lícito que las empresas puedan continuar haciendo uso de sistemas automatizados para la toma de decisiones con efectos jurídicos sobre los ciudadanos, máxime cuando preceptos como el propio artículo 13 de la Ley Orgánica de Protección de Datos establecen expresamente que los ciudadanos tienen el derecho a no verse sometidos a una decisión con efectos jurídicos sobre ellos o que les afecte de manera significativa, que se base únicamente en un tratamiento de datos destinados a evaluar determinados aspectos de su personalidad.

La industria bancaria usa sistemas informáticos para valorar nuestra capacidad de devolver un crédito. Esos sistemas se han basado en la actualidad, mayoritariamente, en procesos de minería de datos de nuestra historia crediticia, pero qué ocurrirá mañana cuando a alguien le denieguen un crédito bancario con base en una decisión automatizada en la que haya podido tener un gran peso específico el uso de sistemas neurales de inteligencia artificial o la toma en consideración de elementos coadyuvantes extractados de su existencia en redes sociales?

En efecto, ante el temor de que el "Gran Hermano" informático avance de forma inapelable sobre cada uno de nosotros gracias a sus archiconocidas tendencias hacia los ecosistemas de costes operativos marginales, el legislador parece advertirnos del peligro que suponen para el ciudadano la toma incontrolada de decisiones sobre la base de instrumentos de procesamiento automatizado. Siendo ello así, se ha previsto como expreso mandato legal en la legislación española el que el afectado pueda impugnar los actos administrativos o decisiones privadas que impliquen una valoración de su comportamiento, cuyo único fundamento sea un tratamiento de datos de carácter personal que ofrezca una definición de sus características o personalidad (art. 13.2).

Significa ello que los particulares tienen derecho a obtener la anulación de los efectos legales de absolutamente toda y cualquier decisión tomada respecto de su persona siempre que la base de la decisión radicase en el empleo de sistemas de inteligencia artificial? Tampoco parece que sea ese el sentido interpretativo que cabe atribuir a la norma. Esa vía interpretativa equivaldría, a efectos prácticos, a establecer una prohibición de uso cuasi-absoluta de sistemas neurales. El empleo de sistemas de inteligencia artificial no es algo prohibido per se por la normativa. Seguramente su licitud exigiría analizar complejas cuestiones sobre consentimiento y las disposiciones contenidas en el artículo 20 del borrador de Reglamento Comunitario de Protección de Datos que exceden en mucho el objetivo del presente artículo.

Como siempre, será necesario integrar la interpretación normativa con el uso social. No en vano, el art. 3.1 del Código Civil establece que las normas jurídicas deberán interpretarse según el sentido propio de sus palabras, en relación con el contexto, los antecedentes históricos y legislativos, y la realidad social del tiempo en que han de ser aplicadas, atendiendo fundamentalmente al espíritu y finalidad de aquéllas. Tomando como guía interpretativa esta regla, podríamos anticipar que se dará un uso lícito de sistemas de inteligencia artificial siempre que se respeten criterios de proporcionalidad y adecuación respecto de la finalidad última del tratamiento y se mantenga un umbral prudencial de distancia respecto de los derechos fundamentales a la intimidad, la dignidad y el honor de la persona.

Quedan por analizar muchos otros aspectos jurídicos relativos a las herramientas de medición de impacto en redes sociales. En próximos posts analizaré la posible conceptualización del incidente del algoritmo interno de Klout como hecho generador de responsabilidad del prestador de servicios de la sociedad de la información.


Vote:
|| || || || |
Resultado:
381 votos
  • Comparte esta noticia en yahoo
  • Comparte esta noticia en technorati
  • Comparte esta noticia en digg
  • Comparte esta noticia en delicius
  • Comparte esta noticia en meneame
  • Comparte esta noticia en linkedin

Comente este contenido

Comenta el artículo

  • Legal Today le informa que los mensajes están sujetos a moderación
  • Legal Today no se responsabiliza ni comparte necesariamente las opiniones expresadas por sus lectores
  • Legal Today excluirá los comentarios contrarios a las leyes españolas, injuriantes y los de índole publicitaria.

Sin comentarios

Te recomendamos

  • Logo Infolex

    Aranzadi Infolex

    Este será tu mayor dilema.
    Con Aranzadi Infolex no hay lugar a dudas.

Blog


Datos personales

ECIJA  es la primera firma legal del mercado español en los sectores de TMT (tecnología, medios y telecomunicaciones) y Propiedad Intelectual, de ......[ver perfil]

Archivo del blog

Accesos adicionales:

© Editorial Aranzadi

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y poder ofrecerle las mejores opciones mediante el análisis de la navegación. Si continúa navegando, consideramos que acepta su uso. Para más información pulse aquí.   Aceptar

.