¡No digas ni mu!: ¿El Tribunal de la UE apoya la opacidad de los sistemas automatizados de reconocimiento de emociones?

¡No digas ni mu!: ¿El Tribunal de la UE apoya la opacidad de los sistemas automatizados de reconocimiento de emociones?

Comparte este post

En mi libro titulado Biometría y sistemas automatizados de reconocimiento de emociones: implicaciones jurídicos-laborales, Tirant Lo Blanch, 2023 explico que un sistema automatizado de reconocimiento de emociones es un sistema de Inteligencia Artificial (IA) destinado a detectar o deducir las emociones en sentido amplio (pensamientos, los estados de ánimo o las intenciones de individuos o grupos) a partir de sus datos biométricos (rostro, voz, movimiento corporal, entre otros) y sus datos de base biométrica (datos “deducidos” tomando en consideración los anteriormente indicados). Por ejemplo, falta de concentración, cansancio, tristeza, felicidad, estrés, etc.

Si bien es una investigación novedosa y de aplicación futura, ya existen sentencias y resoluciones que han abordado esta problemática. La más reciente es la Sentencia de 7 de septiembre de 2023 dictada por el Tribunal General de la Unión Europea. Su conocimiento es muy importante en la medida que podría incidir en el cumplimiento del deber de transparencia por parte de las empresas y entidades públicas cuando éstas empleen algoritmos e IA con repercusiones sobre las personas trabajadoras.

La sentencia anteriormente mencionada se refiere a una petición de transparencia formulada por un representante político y en relación con la tecnología de reconocimiento de emociones ensayada en el proyecto iBorderCtrl. Este proyecto ha sido financiado por la Unión Europea y en su desarrollo se pone en práctica tecnología de reconocimiento de emociones que utiliza IA para detectar mentiras en los controles fronterizos a través del reconocimiento facial (datos biométricos) con el propósito de agilizar la seguridad en las fronteras y el control de pasaportes. Para ello, el software es capaz de detectar numerosas micro expresiones (hasta 38) en el rostro en función de cada respuesta. Las personas que viajan cuando pasen el test reciben un código QR que les permite pasar la frontera. En caso contrario aparecerá un agente físico de seguridad para realizar un control adicional. Vid. noticia

Conviene recordar que el principio de transparencia es de gran relevancia y está garantizado en las normas comunitarias y nacionales. A nivel comunitario se aplica el artículo 13 del Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y el futuro Reglamento de Inteligencia Artificial (artículos 13 y 52.2). Precisamente, esta última norma prohibirá algunos sistemas automatizados de reconocimiento de emociones por sus elevados riesgos.

Además, en nuestro país la Ley Riders introdujo el deber empresarial de transparencia en el uso de la IA y los algoritmos. En concreto, el derecho de la representación legal de las personas empleadas a ser informada por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de IA que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles. Y también hay que citar la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y Garantía de los Derechos Digitales.

En la sentencia que comentamos, el 5 de noviembre de 2018 Patrick Breyer, miembro del Parlamento Europeo y activista por los derechos digitales, solicitó acceso a documentos en poder de la Comisión Europea sobre la investigación iBorderCtrl. La Agencia Ejecutiva Europea de Investigación (REA) facilitó algunos documentos a Breyer pero le denegó otros alegando la protección de los intereses comerciales del consorcio de empresas que colaboran en el proyecto. Breyer impugnó esta decisión argumentando tres razones:

i) Existe un interés público en examinar la base científica y la fiabilidad de la tecnología utilizada en el contexto del proyecto iBorderCtrl, que debería permitir la detección automatizada de mentiras mediante el análisis de las microexpresiones de los rostros de los viajeros en respuesta a las preguntas que se les formularon antes de su entrada en la Unión Europea.

ii) Es preciso conocer el probable impacto que la tecnología utilizada en el proyecto iBorderCtrl tendrá sobre los derechos fundamentales. La transparencia es necesaria en la medida en que dicha tecnología requiere el uso de pruebas y experimentos, implica el uso de datos biométricos y podría tener efectos discriminatorios, en particular respecto de las personas en situación vulnerable.

iii) La tecnología utilizada, originalmente destinada a los controles fronterizos, podría desplegarse en otras zonas para investigar a las personas y verificar sus declaraciones. Por lo tanto, existe un interés democrático y político en determinar si el uso de tal tecnología de control masivo, que actualmente está prohibida, es deseable y si se le debe dar una base legal.

La normativa aplicable al caso es el Reglamento (CE) n° 1049/2001 del Parlamento Europeo y del Consejo, de 30 de mayo de 2001, relativo al acceso del público a los documentos del Parlamento Europeo, del Consejo y de la Comisión cuyo artículo 2, apartado 1, establece que todo ciudadano de la Unión Europea tiene derecho de acceso a los documentos de las instituciones, dentro de los principios, condiciones y límites definidos en dicho Reglamento. Por su parte, el artículo 4 de esta normativa titulado «Excepciones», dispone en su apartado 2: “Las instituciones denegarán el acceso a un documento cuya divulgación pueda menoscabar la protección de: – intereses comerciales de una persona física o jurídica, incluida la propiedad intelectual, …a menos que exista un interés público superior en la divulgación”.

En síntesis, las conclusiones del Tribunal General de la UE son las siguientes:

1ª. Que un proyecto de investigación esté financiado con fondos de la UE y tenga como objetivo el desarrollo de una nueva tecnología puede, en principio, revelar la existencia de un interés público en el acceso a los documentos relacionados con ese proyecto. Sin embargo, exponer un motivo tan general no es suficiente para considerar que dicho interés debe prevalecer necesariamente sobre los motivos que justifican la negativa a revelar dichos documentos.

2ª. El Tribunal distingue entre los documentos que contienen información relativa a las herramientas y tecnologías desarrolladas y la información relativa a la evaluación ética y jurídica de los sistemas. Parece que el deber de transparencia de las instituciones comunitarias se aplica sólo sobre el segundo grupo de documentos pero no respecto del primero.

3ª. A juicio del Tribunal, no se ha demostrado que el principio de transparencia fuera especialmente apremiante y prevalezca sobre la protección de los intereses comerciales de los miembros del consorcio que participan en el proyecto.

Concluyo con una reflexión del Prof. Ignasi Beltrán recogida en su excelente libro Inteligencia Artificial y neuroderechos: la protección del yo inconsciente de la persona, Aranzadi, 2023: “(…) el carácter críptico de esta tecnología para el ciudadano medio hace de la transparencia uno de los mayores retos que la sociedad debe afrontar y, en particular, las relaciones laborales”. En definitiva, el principio de transparencia es una de las garantías más relevantes que debe ser cumplido por las instituciones públicas y las empresas, pues el nivel de riesgo para los derechos fundamentales de los ciudadanos y personas trabajadoras que presentan algunos de los sistemas automatizados de reconocimiento de emociones es muy elevado. Por ejemplo, a través de estos sistemas se puede conocer si los ciudadanos o las personas trabajadoras padecen determinadas enfermedades, discriminar a colectivos vulnerables o generar errores (falsos positivos y falsos negativos).

1 comentario en «¡No digas ni mu!: ¿El Tribunal de la UE apoya la opacidad de los sistemas automatizados de reconocimiento de emociones?»

  1. De gran interés, dado que el tema de la IA y lo sociolaboral avanza más rápido de lo que nadie pensaba, ni las personas que crean las herramientas, ni quién las soportamos

    Responder

¿Qué opinas? ¡Deja tus comentarios!

Este es un blog para la difusión de resultados de investigación y el análisis jurídico de carácter general. Por ello, no se publicarán consultas particulares, que requieren la asistencia de un profesional que analice su caso concreto.

Las siguientes reglas del RGPD deben leerse y aceptarse:
Este formulario recopila tu nombre, tu correo electrónico y el contenido para que podamos realizar un seguimiento de los comentarios dejados en la web. Para más información, revisa nuestra política de privacidad, donde encontrarás más información sobre dónde, cómo y por qué almacenamos tus datos.

Lee más

Suscríbete a nuestro blog

y recibe en tu correo nuestras entradas

También en nuestro blog...

Office table

Contacta
con nosotros

Licencia

El contenido de este blog se publica bajo una Reconocimiento-CompartirIgual 4.0 . Esto significa que puedes reutilizar nuestros contenidos siempre que reconozcas la autoría, enlaces al blog original y no hagas un uso comercial sin autorización previa, expresa y por escrito del autor.