Estos días se habla mucho de los peligros de la inteligencia artificial (IA) poniendo como ejemplo el ChatGPT y sus especiales capacidades. Esta tecnología emergente se aplica a muchas áreas y muy diversas, entre ellas, el ámbito laboral. De hecho el ChatGPT es un robot software y, sobre esta tecnología ya existen casos judiciales en el Derecho del Trabajo. Pero, ¿qué es un robot software?; ¿cómo podría afectar el ChatGPT en el empleo?; ¿y en los derechos de las personas trabajadoras?
Existe un tipo de robótica denominada robots de software que trabajan en las sombras y que actúan sobre las aplicaciones o los ficheros. Nos referimos a los robots RPA (Automatización Robótica de Procesos) y a los chatbots que habitan en nuestros ordenadores y smartphones y sobre todo tienen la capacidad de hablar, escuchar, reconocernos y contestarnos. Así, por ejemplo, el ChatGPT desarrollado por OpenAI puede simular y procesar conversaciones naturales que son propias de las personas. Para ello, ChatGPT analiza una gran cantidad de datos de texto de varias fuentes, incluidos textos en línea, diccionarios, libros y documentos científicos, y se somete a un proceso de entrenamiento mediante un algoritmo de aprendizaje automático.
Los robots software se han definido como los trabajadores virtuales de cuello azul frente a la robótica industrial que se asimila más a los trabajadores de cuello blanco. A diferencia de los robots industriales y los coches autonómos, los robots software no son directamente visibles y no tienen una realidad física (en el sentido que no pesan, no ocupan espacio), sino que son pura lógica, puro software. Si se prefiere decirlo de otra manera, son sólo programas. Por eso ni los vemos ni les podemos tocar. Este tema es abordado por Gavilán (2021) y en mi nuevo libro que será editado por Tirant Lo Blanch.
En primer lugar, los robots software pueden afectar al empleo. Los robots software implican una automatización completa de algunas funciones de contenido laboral. En este sentido, el papel de los robots, tanto RPA como chatbots, es convertir tareas con automatización parcial, es decir, aquellas en que todavía una persona tiene que intervenir, por una automatización completa para lo que los robots sustituyen a la persona en esa intervención.
Los robots RPA, por ejemplo, pueden desempeñar muchos trabajos de oficina o tareas administrativas, que implican lectura y escritura de datos en o desde aplicaciones y documentos. Los chatbots sustituyen típicamente las labores de personas en atención al cliente o usuarios. En este sentido, ya se analizó en el Blog el caso de Macarena en el sector del seguro que se define a sí misma como una operadora virtual empática y colaborativa que tiene disponibilidad 100% (24x7x365 días) pero hay otros como Jano en el Servicio Cántabro de Salud que es capaz de realizar hasta 200 llamadas de forma simultánea y organizar las citas médicas
Sobre este tema, fue célebre la Sentencia del Juzgado de lo Social número 10 de Las Palmas de Gran Canaria de 23 de septiembre de 2019, que declaró improcedente el despido de una trabajadora de una multinacional turística por causas objetivas, tras 13 años trabajando como administrativa (oficial de contabilidad), para ser suplida por un programa informático o “robot de software” (RPA”) que realiza las operaciones que antes desarrollaba la trabajadora.
En segundo término, los robots software pueden vulnerar los derechos de intimidad y protección de datos de carácter personal de las personas trabajadoras. Es importante advertir que los robots RPA pueden leer el correo electrónico y los documentos que se procesan en el puesto de trabajo pudiendo llegar a pulverizar el derecho fundamental de intimidad de la persona trabajadora.
Mientras se tramita el borrador de Reglamento de Inteligencia Artificial (Ley de Inteligencia Artificial), las personas trabajadoras sólo pueden exigir a las empresas los deberes recogidos en el Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos (RGPD) y, en el caso español, también la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales.
Precisamente, aplicando el RGPD, el 30 de marzo de 2023 el Garante per le protezione dei dati personali (la Agencia de Protección de Datos en Italia) concluyó que el ChatGPT presentaba dudas de ilegalidad. Por su parte, la Agencia Española de Protección de Datos ha iniciado de oficio actuaciones previas de investigación sobre este chatbot.
En concreto, las irregularidades identificadas por la Agencia italiana mencionada son las siguientes: i) No está clara la base legítima para tratar de forma masiva datos de carácter personal con la función de entrenar al ChatGPT; ii) transparencia: se produce falta de información proporcionada a los usuarios e interesados cuyos datos son recopilados y tratados por OpenAI; iii) Inexactitud de los datos: la información proporcionada por ChatGPT (por ejemplo, en sus respuestas a una pregunta o una respuesta de ensayo) no siempre se corresponde con los datos reales, por lo que existe el riesgo de un procesamiento inexacto de los datos personales. En este sentido, esta tecnología precisa todavía de una mayor madurez, pues existen ejemplos relativo a la salud donde se pone de manifiesto que no es del todo fiable y que pueden ser extrapolables a otros campos. Vid. noticia.
En el caso que el ChatGPT u otro similar fuera utilizado en las empresas como una herramienta laboral que procesara datos de carácter personal de los empleados, parece claro que las empresas deberían cumplir las obligaciones de legitimación, transparencia y, en su caso, la evaluación de impacto exigida en el artículo 35.1 RGPD y en la lista no exhaustiva de la AEPD.
Hasta la fecha no se han observado incumplimientos en el ChatGPT de la garantía de supervisión humana prevista en el artículo 22 del RGPD. Sin embargo, existen otros chatbots cuyas decisiones no son objeto de supervisión humana. Por ejemplo, el programa Woebot, orientado a proporcionar apoyo psicológico a los más jóvenes, advierte que ofrece una conversación entre una persona y una máquina sin supervisión humana. Precisamente, también en Italia en febrero de 2023 se ha cuestionado a Replika, que es un chatbot impulsado por IA equipado con una interfaz de texto y voz que genera un amigo virtual, pues presentaba riesgos reales para las personas emocionalmente vulnerables. Sobre el nuevo uso de la IA como una herramienta para la mejora en el bienestar emocional de las personas trabajadoras nos remitimos a nuestra entrada.
En definitiva, las cuestiones planteadas refuerzan la idea de la necesidad de una respuesta legal coordinada entre los países que ofrezca criterios uniformes que sirvan a las empresas para un uso responsable y ético de la IA. En este sentido, sería deseable que la Ley de Inteligencia Artificial se apruebe en un plazo razonable para beneficiarnos de las ventajas del ChatGPT y otros similares en un marco normativo avanzado y seguro.