
- Grupo Atico34 analiza las nuevas obligaciones del Reglamento de IA y cómo proteger el derecho a la desconexión digital de los trabajadores
Hace algunos meses, Inspección de Trabajo sancionó por incumplir el derecho a la desconexión digital a una empresa del sector logístico por usar un sistema de IA que reasignaba pedidos de reparto fuera de jornada y notificaba automáticamente a los conductores mediante una app. En Francia, una filial tecnológica en Francia recibió una multa de 50.000 euros por mantener un sistema de mensajería corporativa activo fuera del horario laboral, sin ofrecer al personal la posibilidad de desactivarlo.
Son solo algunos ejemplos que demuestran que las autoridades de protección de datos, tanto españolas como en el resto de la Unión Europea, se están tomando muy en serio el derecho a la desconexión digital, y más ahora que cada vez más empleados desarrollan su trabajo en entornos de trabajo con Inteligencia Artificial.
Y es que en plena era de la automatización, la inteligencia artificial (IA) se ha integrado en los procesos laborales con una velocidad vertiginosa. Plataformas que asignan tareas en tiempo real, algoritmos que evalúan el rendimiento al segundo, sistemas que notifican fuera del horario laboral… La promesa de eficiencia constante convive ahora con un riesgo creciente: la erosión del derecho a la desconexión digital, especialmente en entornos donde la IA nunca duerme.
A medida que las tecnologías evolucionan, también lo hacen las tensiones entre productividad y salud mental. Aquí es donde aparece el Reglamento de Inteligencia Artificial (Reglamento de IA) aprobado por la Unión Europea en 2024, para aportar un nuevo marco para analizar el impacto de estos sistemas en los derechos laborales, incluidos el descanso y la intimidad.
¿Qué es el derecho a la desconexión digital y por qué peligra en 2025?
El derecho a la desconexión digital es la facultad de los trabajadores de no atender comunicaciones laborales fuera de su horario de trabajo. En España, este derecho se reconoce expresamente desde 2018 en el artículo 88 de la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD), y ha sido reforzado por la jurisprudencia laboral y convenios colectivos.
Sin embargo, su aplicación real se ha vuelto cada vez más compleja en un contexto donde muchas herramientas digitales operan las 24 horas. La introducción de sistemas de inteligencia artificial en recursos humanos, gestión de turnos o asignación de tareas ha multiplicado las situaciones de tensión. Desde la empresa de protección de datos Grupo Atico34, donde las organizaciones pueden solicitar directamente asesoramiento experto, explican que ya están viendo cómo “ciertos sistemas generan alertas o asignaciones automáticas fuera del horario laboral, y que muchos empleados sienten la presión de responder, aunque legalmente no deberían hacerlo”. Esto, apuntan, “no solo afecta al bienestar del trabajador, sino que puede constituir una vulneración legal si no se toman medidas correctivas”.
Uno de los principales problemas es que muchos de estos sistemas operan sin una programación clara de límites temporales. El algoritmo no distingue entre horario laboral y personal. Si las empresas no configuran o supervisan adecuadamente estas herramientas, terminan exponiéndose a sanciones por sobrecarga digital.
IA en el trabajo: ¿avance o amenaza para los derechos laborales?
El nuevo Reglamento de IA aprobado por la UE en 2024 clasifica los sistemas de inteligencia artificial en función de su nivel de riesgo. Aquellos que se utilizan para gestionar personas trabajadoras (por ejemplo, asignar turnos, evaluar productividad o tomar decisiones disciplinarias automatizadas) se consideran de alto riesgo. Esto implica obligaciones reforzadas: desde evaluaciones de impacto algorítmico hasta garantías de supervisión humana.
Una de las grandes preocupaciones es cómo estos sistemas pueden amplificar la cultura del “siempre disponible”. Si un trabajador recibe notificaciones automáticas en días festivos o es evaluado negativamente por no responder fuera de su horario, estamos ante una clara colisión con el derecho a la desconexión. Los expertos de Grupo Atico34 recalcan que “este tipo de prácticas pueden derivar en entornos laborales hostiles donde el descanso desaparece de facto, aunque la empresa no lo haya impuesto de forma explícita y subrayan la importancia de revisar cómo interactúan los algoritmos con los trabajadores y qué tipo de mensajes o métricas generan”.
Además, la presión para mantenerse conectado (incluso si no hay una orden directa) puede generar estrés laboral crónico, agotamiento e incluso bajas por salud mental. Esto se traduce en pérdida de productividad, conflictos sindicales y un deterioro de la reputación empresarial.
Buenas prácticas para proteger el derecho a desconectar en la era de la IA
A pesar de los riesgos, el uso de IA en entornos laborales no está reñido con el respeto a los derechos digitales. Todo depende de cómo se diseñen, configuren y supervisen estos sistemas. Y ahí es donde contratar una empresa de protección de datos como Grupo Atico34, se convierte en una decisión estratégica.
Algunas recomendaciones prácticas para las organizaciones:
- Evaluación de impacto algorítmico: El Reglamento de IA obliga a realizar una AIA en sistemas de alto riesgo. En esta evaluación deben incluirse expresamente los posibles efectos sobre la desconexión digital.
- Políticas internas claras: Los manuales y protocolos deben reflejar de forma explícita el derecho a la desconexión. Es esencial establecer reglas sobre cuándo y cómo pueden usarse los sistemas de comunicación y notificación automatizada.
- Configuraciones responsables de la IA: Cualquier sistema que envíe alertas o tome decisiones debe estar restringido a horarios laborales. Las empresas deben auditar estas configuraciones de forma periódica.
- Supervisión humana obligatoria: Las decisiones automatizadas que afectan a empleados (sanciones, cambios de turnos, evaluaciones) deben contar con supervisión humana, tal como exige el Reglamento de IA.
- Formación y sensibilización: Los responsables de recursos humanos, IT y los propios trabajadores deben estar informados sobre sus derechos y cómo interactuar con los sistemas automatizados.
Cabe destacar que muchas empresas tienden a ver la implementación de la IA como un asunto técnico, cuando en realidad también tiene una dimensión jurídica y humana fundamental. Es importante, en este sentido, no subestimar el impacto que una mala configuración algorítmica puede tener sobre los derechos fundamentales del personal.
Conclusión: una nueva frontera para los derechos laborales
La inteligencia artificial puede aportar eficiencia, objetividad y ahorro de costes en la gestión laboral. Pero también puede erosionar derechos si no se aplica con sentido ético y legal. El derecho a la desconexión digital, lejos de ser una cuestión simbólica, se ha convertido en una frontera esencial para proteger la salud mental y la dignidad de las personas trabajadoras.
En 2025, el Reglamento de IA ofrece una oportunidad para poner límites claros al uso de sistemas automatizados en el entorno laboral. Pero no basta con leyes: hace falta conciencia, voluntad y acompañamiento experto. Por ello, contar con asesoramiento especializado, como el que ofrecen empresas de protección de datos como Grupo Atico34, permite a las organizaciones implementar inteligencia artificial sin comprometer los derechos de su plantilla, especialmente el derecho a la desconexión digital.