Comparte este post

Hace unos días participé en la Jornada sobre Digitalización, Riesgos Psicosociales y Salud Emocional en el Trabajo, dirigida por el Prof. Molina Navarrete y celebrada en Jaén. En esta Jornada expuse que hay un nuevo uso de la IA que se perfila como una herramienta para la mejora en el bienestar emocional de las personas trabajadoras. Un ejemplo de ello son los chatbots orientados a la salud mental.

Los chatbots orientados a la salud mental se definen como programas con inteligencia artificial que los ciudadanos (incluyendo trabajadores) pueden usar para reducir el estrés y la ansiedad y que son capaces de reconocer la emoción, atención y motivaciones de las personas. Algunos ejemplos son los siguientes: Woebot (2017,USA), Yana (Your are not alone, 2020, MEX) y «CoActuem per la Salut Mental» (2021, ESP). Todos ellos funcionan mediante conversaciones basadas en el lenguaje escrito y ofrecen recursos de apoyo y prácticas.

Si bien compartir emociones con un software puede parecer hoy en día algo lejano en el tiempo, algunos estudios indican que el 68% de una muestra de 12.000 personas (empleados, directores de recursos humanos y gerentes) de 11 países prefieren hablar con un chatbot sobre su salud mental que con un supervisor humano (Agencia Europea para la Seguridad y Salud en el Trabajo, 2022). Algunas ventajas de esta tecnología son la disponibilidad 24x7x365, la amplia base de datos de casos relacionados con problemas de salud emocional y su bajo coste.

Se debe advertir que determinados organismos europeos consideran que el uso de la IA para inferir emociones de una persona física es muy indeseable y debería prohibirse, excepto en determinados casos de uso bien especificados, a saber, con fines de salud o investigación (por ejemplo, pacientes para quienes el reconocimiento emocional es importante), siempre con las salvaguardias adecuadas y, por supuesto, con sujeción a todas las demás condiciones y límites de protección de datos, incluida la limitación de la finalidad [CEPD-SEPD Dictamen conjunto 5/2021 sobre Ley de Inteligencia Artificial, 18.6.2021]. En el caso del chatbot “CoActuem per la Salut Mental” está impulsado por el grupo OpenSystems de la Universidad de Barcelona y por la Federació Salut Mental Catalunya (SMC) y se enmarca dentro del proyecto CoAct financiado por la Unión Europea.

Al basarse en el lenguaje escrito el uso de chatbots formaría parte del nivel de riesgo permitido en el proyecto europeo de Ley de Inteligencia Artificial. Se debe recordar que en dicho proyecto normativo se regulan los sistemas de reconocimiento de emociones y se fija la seguridad y salud de las personas empleadas como uno de los límites a tener en cuenta cuando estos programas procesan datos biométricos (voz, expresión facial, etc.). Siguiendo con este razonamiento, parece que en el caso de los chatbots orientados a la salud mental las empresas tan solo deberían cumplir las obligaciones en materia de protección de datos fijadas en el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (en adelante RGPD) y el deber de transparencia algorítmica del artículo 64.4.d) del ET (vid. Guía y Herramienta elaborada por la Comisión de Expertos).

Si bien el uso de esta tecnología en las empresas puede tener por finalidad apoyar a la persona empleada en su salud emocional, conviene advertir que los flujos conversacionales podrían tener un propósito bidireccional y utilizarse para mejorar la habilidad de comprensión del bot, contribuyendo así el trabajador a su entrenamiento al igual que hacemos cuando marcamos o desmarcamos correos electrónicos del spam.

Además, parece necesario que dichos programas ofrezcan algunas garantías a los empleados como la supervisión humana. Por ejemplo, el programa Woebot advierte que ofrece una conversación entre una persona y una máquina sin supervisión humana. Sin embargo, en muchas ocasiones este tipo de tecnología muestra un comportamiento inteligente similar al de un ser humano o indistinguible de éste superando el test de Turing. Esta prueba consiste en averiguar si en una conversación entre dos interlocutores que carecen de contacto sensorial entre sí, una persona puede distinguir entre las respuestas generadas por otra persona y las que genera una máquina. La situación descrita podría suponer cierto riesgo para la persona ya que se realizan registros de emociones (tristeza, miedo, angustia, etc.) que se derivan en un planteamiento-guía que podría confundir o derivar en la adopción de decisiones erróneas en caso de fallos del sistema.

Conviene llamar la atención que la prevención de riesgos laborales no aparece expresamente contemplada en el artículo 22 RGPD sobre decisiones automatizadas. Si bien el RGPD no incorpora el enfoque de la prevención de riesgos laborales, permite que los Estados Miembros lo lleven a cabo. En efecto, se contempla en el artículo 88 RGPD la posibilidad de abordar la seguridad y salud en el trabajo cuando se expresa que: «Los Estados miembros podrán, a través de disposiciones legislativas o de convenios colectivos, establecer normas más específicas para garantizar la protección de los derechos y libertades en relación con el tratamiento de datos personales de los trabajadores en el ámbito laboral, en particular a efectos (…) salud y seguridad en el trabajo (…)».

Se debe recordar también el deber de consulta con los representantes de los trabajadores previsto en la Ley 31/1995, de 8 de noviembre, de Prevención de Riesgos Laborales, cuando se introduce una nueva tecnología en la empresa que pueda tener consecuencias para la seguridad y salud de las personas trabajadoras. Así, el artículo 33 de la Ley mencionada expresa: «1. El empresario deberá consultar a los trabajadores, con la debida antelación, la adopción de las decisiones relativas a: a) La planificación y la organización del trabajo en la empresa y la introducción de nuevas tecnologías, en todo lo relacionado con las consecuencias que éstas pudieran tener para la seguridad y la salud de los trabajadores, derivadas de la elección de los equipos, la determinación y la adecuación de las condiciones de trabajo y el impacto de los factores ambientales en el trabajo».

Para concluir, sería deseable que el legislador y/o la negociación colectiva fuera dando algunos pasos para ir construyendo una línea de actuación entre la IA y la prevención de riesgos laborales que suponga una respuesta innovadora que vaya más allá del círculo estrecho de los derechos de protección de datos, intimidad, igualdad y no discriminación. De esta forma, se establecerán garantías adecuadas para el uso de la IA con una finalidad preventiva.

Deja un comentario

Las siguientes reglas del RGPD deben leerse y aceptarse:
Este formulario recopila tu nombre, tu correo electrónico y el contenido para que podamos realizar un seguimiento de los comentarios dejados en la web. Para más información, revisa nuestra política de privacidad, donde encontrarás más información sobre dónde, cómo y por qué almacenamos tus datos.

Lee más

Suscríbete a nuestro blog

y recibe en tu correo nuestras entradas

También en nuestro blog...

Office table

Contacta
con nosotros