LegalToday

Por y para profesionales del Derecho

Portal jurídico de Thomson Reuters, por y para abogados

24/09/2022. 19:08:18

LegalToday

Por y para profesionales del Derecho

Metaverso y responsabilidad médica

El uso de la inteligencia artificial pone a prueba la futura regulación con las máquinas

Abogado especialista en Derecho Sanitario. Miembro del Comité de Bioética del Hospital Universitario Puerta de Hierro de Majadahonda. Profesor Asociado de la Cátedra de Salud, Derecho y Responsabilidad Civil de la Universidad de Alcalá. Creador del Podcast Doctorley.

Todavía no hemos regulado la telemedicina y ya se vislumbra en el horizonte más próximo el uso generalizado de la robótica así como el uso de la tecnología inmersiva, anunciando un lejano cambio de paradigma en la relación médico paciente.

Dos son los elementos que generan más incertidumbre y sobre los que ya trabaja la Unión Europea:

-Inteligencia artificial (IA)

-Robótica

INTELIGENCIA ARTIFICIAL

El uso cada vez más extendido de robots quirúrgicos y wearables, dispositivos que monitorizan nuestros parámetros de salud, genera no pocos recelos, ya que estos últimos dejan un inquietante rastro de datos en las redes. Antes teníamos el internet de las personas y ahora sin darnos cuenta tenemos el internet de las cosas.

Consciente de ello, la presidenta de la Comisión Europea, Ursula Von der Leyen, ha impulsado la propuesta sobre la futura ley de Inteligencia artificial (1), con la idea de estar preparados para el gran cambio tecnológico que se avecina y que afecta también a la sanidad.

La propuesta de regulación establece cuatro tipos de riesgo relacionado con la IA, con sanciones de hasta 30 millones de euros para quien traspase los límites de seguridad:

Riesgo inadmisible, aquel en el que se vulneran los derechos fundamentales. entre ellos el uso de técnicas de IA subliminal, que aprovechan las vulnerabilidades de los menores o personas con discapacidad. La manipulación utilizando los algoritmos, es una realidad y puede generar dependencia y daños psicológicos evidentes.   

Alto riesgo:  Aquellos sistemas de IA que tienen un impacto negativo en la seguridad de las personas.

Riesgo limitado, como la utilización de robots conversacionales (bots) difícilmente distinguibles de una persona y cuya información puede inducir a error. 

Riesgo mínimo: En el que se encuentran la inmensa mayoría de los sistemas de IA y a los que se invita a adherirse a códigos de conducta voluntarios.

Las recomendaciones comunitarias, concluyen que el uso de la IA es imparable y en el ámbito sanitario se perfila, como una herramienta capaz de aprender y gestionar enormes cantidades de datos clínicos, participando incluso del diagnóstico masivo de patologías, como es el caso de la radiología o la oncología.     

ROBÓTICA

Cuando hablamos de IA, es inevitable pensar también en la robótica, que si bien a nivel sanitario/quirúrgico no es autónoma, las recomendaciones legales ya ponen sus ojos en una lejana pero posible, singularidad.

Al respecto la Unión Europea está elaborando las futuras normas de derecho civil en robótica (2), estableciendo que su utilización en la prestación sanitaria:

1º Debe ser siempre supervisada por seres humanos (personal sanitario).

2º Estos  participarán, tanto en su programación inicial, como en su gestión y cuidado

3º Que la decisión en la ejecución, pertenece en última instancia al cirujano (en el caso de robots quirúrgicos).   

En nuestro actual marco normativo y por razones evidentes, la maquinaria robótica no pueden ser considerados responsables de los actos u omisiones, aunque causen daños a terceros. El único responsable es el fabricante, el operador, el propietario o el usuario.

Llama la atención, que las recomendaciones de la Comisión Europea van más allá y admiten que en el supuesto de que un robot pueda en el futuro tomar decisiones autónomas, las normas actuales no bastarán para generar responsabilidad jurídica. En los daños ocasionados por el robot autónomo, no se podrá determinar, que parte de la cadena asistencial tendrá que hacerse cargo de la indemnización.

Por ello y para solucionar esta situación, en caso de tecnología robótica, cada vez más autónoma, la solución estará en el establecimiento de un régimen de seguro obligatorio, así como el  establecimiento de un fondo de compensación que garantice además los daños causados por el sistema autónomo no asegurado.

Finalmente, algunas grandes compañías están trabajando para implementar el uso del llamado “METAVERSO”. Hablamos del uso de una arquitectura virtual (mundo artificial) de gestión privada, al que se accede mediante unas gafas de realidad aumentada y elementos apticos (guantes) que permiten la sensación del tacto. El desplazamiento en este escenario virtual se realiza a través de un “avatar”. 

Hasta la fecha esta tecnología, aún en desarrollo y asentada en el uso interno de criptomonedas y tokens, se ha utilizado de forma muy restrictiva con fines educativos o de ocio, pero su implementación, ya se está trabajando por gigantes tecnológicos como Meta (antes Facebook) o Microsoft.

El problema de esta nueva tecnología y sus dispositivos de acceso, radica en que durante su uso, se monitoriza biométricamente al usuario. Ese tipo de datos sanitarios de máximo nivel de protección, entrarían a formar parte de los metadatos de la red, con el consiguiente conflicto con la Normativa de Protección de Datos.  (3)

A efectos de responsabilidad sanitaria, tal y como nos ha ocurrido con la telemedicina, cualquier acto médico que utilice este sistema de comunicación, ya sea para la emisión de un diagnóstico, prescripción o seguimiento, vinculará al medico responsable.

El traslado de información y el uso de consentimientos informados específicos para trabajar en este tipo de entornos inmersivos, se intuye una necesidad evidente.

Por otro lado, el error de diagnóstico o la generación de un daño en esta realidad virtual, ya sea patrimonial o personal, tendrá que tener su repercusión en la realidad natural y en la legislación que le es propia a cada estado.  

BIOETICA

Semejantes retos tecnológicos con el crecimiento exponencial de la inteligencia artificial  han llevado a la Unión Europea y a organismos internacionales a emitir numerosas recomendaciones para crear un entorno ético frente a las nuevas tecnologías. Entre ellos la Resolución del Parlamento Europeo, de 20 de octubre de 2020  (4) o la reciente  Conferencia General de la Organización de las Naciones Unidas sobre aspectos éticos en inteligencia artificial (5), donde ya se establece en el ámbito médico, que durante la utilización de cualquier dispositivo de IA, la gestión y la decisión final sobre el diagnóstico y el tratamiento, corresponde a los seres humanos, señalando a los sistemas de IA solo como una ayuda complementaria.

En estas nuevas normativas, los famosos principios de la bioética siguen tutelando los pasos indecisos y necesarios que debemos realizar con la IA en el ámbito sanitario:

-Principio de autonomía. Manteniendo en el profesional de la sanidad la capacidad para tomar decisiones.

-Principio de beneficencia. La IA debe actuar en beneficio del ser humano.  

-Principio de no maleficencia. Los elementos de la IA no deberían generar daño.

-Principio de justicia.  La distribución y acceso a esta tecnología de asistencia sanitaria debería ser lo más accesible posible. 

Llama la atención las continuas referencias que las recomendaciones del Parlamento Europeo hacen sobre la futura autonomía de los elementos tecnológicos y la posibilidad de que estos nos superen en conocimiento. De ahí ese carácter proteccionista; la temida pero muy lejana singularidad.

Ramiro Urioste Ugarte

Abogado especialista en derecho sanitario

Miembro del Comité de Bioética del H. U. Puerta de Hierro de Madrid.

1- Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión com/2021/206 final

2- Resolución del Parlamento Europeo, de 16 de febrero de 2017, con recomendaciones destinadas a la Comisión sobre normas de Derecho civil sobre robótica (2015/2103(INL))

3– Ley Orgánica de 3/2018 de Protección de Datos Personales y garantía de los Derechos Digitales.

4– Resolución del Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a la Comisión sobre un marco de los aspectos éticos de la inteligencia artificial, la robótica y las tecnologías conexas (2020/2012(INL))

5- Conferencia General de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO)

Valora este contenido.

Puntuación:

Sé el primero en puntuar este contenido.