La llamada “Ley rider”, ha introducido en el Estatuto de los Trabajadores un nuevo derecho de información en favor de los representantes legales de los trabajadores. Pues bien, el Ministerio de Trabajo acaba de publicar una “guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral”, que dice “reunir en un único documento las obligaciones y derechos existentes en materia de información algorítmica en el ordenamiento jurídico-laboral español” y del que damos cuenta en este artículo
“Riders Law”, as it is popularly well-known, has introduced through the Spanish Workers’ Statute a new information right in favour to the Workers Legal Representation. With this regard, Spanish Labour Ministry has recently published a “Practical Guide and Tool for the business obligation to use the algorithms on workplace”. The aforementioned guide refers to “unifying on a sole document the obligations and rights applicable in terms of algorithmic information on the Spanish legal-labour framework” and about we analyse in this article.
Como es sabido, la llamada “Ley rider”, ha introducido en el Estatuto de los Trabajadores un nuevo derecho de información en favor de los representantes legales de los trabajadores. Se recoge en la nueva letra d) del art. 64.4, que literalmente reza: “El comité de empresa, con la periodicidad que proceda en cada caso, tendrá derecho a: d) Ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, acceso y mantenimiento del empleo, incluida la valoración de perfiles”.
Se trata de un precepto escueto, fruto por cierto de un largo proceso de negociación en la mesa del diálogo social, que ya hemos interpretado en términos técnico-jurídicos, es decir, aplicando al mismo los cánones hermenéuticos previstos en el art. 3.1 del Código Civil. Resultado de esta interpretación son las pautas de lectura siguientes:
- El precepto tiene carácter general, es decir, obliga a todas las empresas que utilicen algoritmos para la toma de decisiones laborales y no solo a las plataformas digitales de reparto.
- Reconoce un derecho de información en favor de los representantes legales de los trabajadores, tanto unitarios – delegados de personal y comités de empresa- como sindicales.
- De acuerdo con su literalidad, el presupuesto del que depende el nacimiento del derecho es amplio: la utilización por parte de la empresa de un algoritmo o sistema de inteligencia artificial que “pueda incidir” en el proceso de adopción de cualquier decisión laboral. No es necesario que el algoritmo haya sido efectivamente utilizado en el proceso decisional para que el derecho se genere, basta con que exista y pueda utilizarse en tal proceso para que nazca el derecho de información.
- El contenido del derecho a la información no se refiere al algoritmo “in totum”, lo que excluiría el acceso al código fuente – las instrucciones que componen el algoritmo en lenguaje de programación-, sino exclusivamente a los “parámetros, reglas e instrucciones” utilizados por este en el proceso decisional. Ello obliga a la empresa a elaborar la información de que dispone y transmitir a los representantes de los trabajadores en términos verbales información clara, completa y útil sobre dos extremos: en primer lugar, sobre los elementos que han sido tomados en consideración para configurar el algoritmo y, en segundo lugar, sobre la forma en que tales elementos interactúan para llegar a la decisión algorítmica que eventualmente va a ser utilizada para adoptar la decisión laboral.
- En cuanto a la “periodicidad” con la que debe informarse, entendemos que la información debe producirse cuando el algoritmo o el sistema de inteligencia artificial se introduce y siempre que sean modificados o alterados en su configuración.
Pues bien, si esta fuese la interpretación técnico-jurídica de los términos legales, con el título “Información algorítmica en el ámbito laboral”, el Ministerio de Trabajo acaba de publicar una “guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral”, que dice “reunir en un único documento las obligaciones y derechos existentes en materia de información algorítmica en el ordenamiento jurídico-laboral español”. Sucede, sin embargo, que siguiendo una práctica que viene siendo habitual desde hace algún tiempo en el “modus operandi” legislativo del Ministerio y que consiste en intentar enmendar a través de instrumentos de “soft law”, como por ejemplo las exposiciones de motivos de las leyes o estas “guías”, la norma pactada en la mesa del diálogo social, dicha guía hace una lectura extensísima de tales obligaciones y derechos, hasta el punto de superar con mucho la literalidad de las normas que interpreta, de modo que, en vez de ofrecer seguridad jurídica a los operadores que es lo que sería exigible de un documento de esta naturaleza, hace exactamente lo contrario. Tendrán que ser una vez más los tribunales laborales los que clarifiquen el alcance de las obligaciones empresariales, que cabe esperar sean más cabales en su lectura de la Ley que el llamado “legislador soft law”.
Algunos ejemplos bastarán para ilustrar la crítica que acabo de formular.
El primer precepto que es objeto de interpretación por parte de la guía es el art. 22 del Reglamento General de Protección de Datos de la Unión Europea. Conforme al apartado primero del mismo, “todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente de modo similar”. De la lectura del precepto resulta claro que su ámbito aplicativo se extiende a las decisiones “únicamente basadas en el tratamiento automatizado”, de suerte que en aquellos supuestos en los que la decisión no se base exclusivamente en el tratamiento automatizado, no entraría en juego el precepto reglamentario ni los derechos de información y acceso previstos en los arts. 13, 14 y 15 del reglamento en favor del individuo afectado, que específicamente remiten al art. 22.1. Así ha interpretado su tenor el llamado Grupo de Trabajo del art. 29 de la Directiva 95/46/CE, que ve en el mismo una prohibición de toma de decisiones individualizadas totalmente automáticas, esto es, basadas únicamente en dicho tratamiento automatizado sin participación humana, entendiendo que de producirse ésta el precepto no resultaría de aplicación ( Cit en. J. L Goñi Sein, La nueva regulación europea y española de protección de datos y su aplicación al ámbito de la empresa, Albacete 2018, pág. 135) . Pues bien, para la guía, que por lo visto se proponer también iluminar sobre el Derecho europeo, la intervención humana, aunque efectivamente se produzca solo de ser “significativa” hace que no estemos ante una decisión íntegramente automatizada, de suerte que, si tal intervención “replica la intervención algorítmica” o no se extiende a todo el proceso decisional, seguiríamos de lleno en el ámbito de aplicación de la norma. ¿Dónde hace la norma europea tales distinciones? ¿El adverbio “únicamente” no resulta suficientemente expresivo? Para la guía parece que no.
Esta interpretación extensiva del art. 22 sirve a los redactores de la guía para hacer una segunda pirueta interpretativa. Aunque el 22 se refiera a las decisiones basadas únicamente en el tratamiento automatizado, supuesto para el que reconoce determinados derechos de información y acceso en favor de los individuos afectados, y el art. 64. 4 d) contemple un derecho de información colectivo reconocido al comité de empresa sobre los “parámetros, reglas e instrucciones” en los que se basan los algoritmos que puedan utilizarse para adoptar una decisión laboral –estamos, por consiguiente, ante dos regulaciones de contenido y alcance diverso, cada una con su propia lógica-, para la guía ambas regulaciones “tienen un contenido común referente a la información a proporcionar por parte de la empresa”. Sobre la base de este “totum revolutum” la guía hace una lectura muy extensiva de las obligaciones del empresario que desborda, con mucho, las previsiones reglamentarias y legales. Hasta quince extremos dice la guía que deben proporcionarse por parte de la empresa, a saber:
- “El uso de algoritmo y sistemas de inteligencia artificial para la toma de decisiones de gestión de personas, incluyendo tanto a personas trabajadoras como a personas candidatas a un puesto de trabajo”.
- “El uso de algoritmos o sistemas de inteligencia artificial para la elaboración de perfiles de las personas para su aplicación en el ámbito laboral”.
- “Las concretas decisiones de gestión de personas que son tomadas mediante algoritmos o sistemas de decisión automatizada”
- “El tipo de tecnología utilizada por parte del algoritmo y, entre otras cuestiones, si esta genera un algoritmo de “caja negra” o si se trata de un algoritmo de aprendizaje continuo”.
- “El concreto software o producto utilizado y, en su caso, si cuenta con algún tipo de certificación la empresa suministradora y, en su caso, si la empresa ha realizado alguna alteración sobre el producto”.
- “El grado de intervención humana cualificada en las decisiones adoptadas mediante el uso de algoritmos y sistemas de decisión automatizada. En concreto, la competencia y autorización de la persona humana para apartarse de la decisión adoptada por el algoritmo”
- “En caso de elaboración de perfiles, la tipología de perfiles que elabora el algoritmo y específicamente a la persona trabajadora”
- “Las variables utilizadas por parte del algoritmo, entendidas como la información o factores utilizados por el algoritmo para tomar la decisión o la elaboración del perfil”.
- “Los parámetros utilizados por parte del algoritmo para la toma de decisiones automatizadas, entendidos como la ponderación relativa de cada variable en el modelo para la toma de la decisión, así como cualquier cambio de estos parámetros que modifique el comportamiento del algoritmo”.
- ”Las reglas e instrucciones utilizadas por el algoritmo, entendidas como las reglas de programación (ya sea aquellas programadas de forma expresa o derivadas por aprendizaje automático del propio algoritmo) que conducen a la toma de decisión”.
- “Los datos de entrenamiento y, en su caso, validación utilizados y sus características”.
- “En los casos de elaboración de perfiles, las métricas de precisión o error en las tareas automatizadas (clasificación, puntuación, regresión, ordenación…) de las personas en los distintos perfiles”
- “Las auditorías realizadas o la evaluación de impacto realizada por parte de la empresa o una tercera empresa respecto del algoritmo o sistema de decisión automatizada utilizado”.
- “Las consecuencias que la decisión adoptada mediante algoritmos o sistemas de decisión automatizada pueden tener sobre la persona”.
- “A la representación legal de la plantilla, además debe proporcionarse información respecto al impacto que las decisiones adoptadas mediante algoritmos o sistemas de decisión automatizada tienen en materia de igualdad y no discriminación entre mujeres y hombres”.
Basta contrastar la literalidad del art. 64.4.d) con la enumeración reseñada para darse cuenta de hasta qué punto se hace una lectura extensiva de las previsiones legales. Salvadas las dos primeras previsiones por obvias, las que se corresponden con las previsiones legales son las contenidas en los puntos 8, 9 y 10, que no en balde se refieren, como la Ley, a parámetros, reglas e instrucciones. El resto desbordan las previsiones legales y, a nuestro juicio, no pueden ser exigidas sobre la base de este nuevo derecho de información introducido en el Estatuto de los Trabajadores.
Por fin, un último ejemplo de esta interpretación desaforada que lleva a cabo la guía es lo que se dice a propósito de la utilización del algoritmo “en el contexto de un despido colectivo”. Empieza la guía reconociendo “la ausencia de una obligación general de negociar el algoritmo” para a continuación entender que, si el algoritmo es “utilizado en el marco de un despido colectivo para, por ejemplo, determinar las personas afectadas por el despido”, “sí existe tal obligación de negociación”. ¿Sobre qué bases legales se fundamentaría tal obligación? Para la guía, sobre la base de la existencia de una obligación legal de abrir un período de consultas con la representación legal de los trabajadores, exigencia legal que también se prevé en el Estatuto de los Trabajadores para las modificaciones sustanciales de las condiciones de trabajo, los traslados y los expedientes de regulación temporal de empleo, supuestos a los que también será aplicable la obligación de negociar el algoritmo.
Sucede, sin embargo, que el art. 51 nos dice que las consultas, durante las cuales las partes “deben negociar de buena fe”, versarán, como mínimo, “sobre las posibilidades de evitar o reducir los despidos colectivos y de atenuar sus consecuencias mediante el recurso a medidas sociales de acompañamiento, tales como medidas de recolocación o acciones de formación o reciclaje profesional para la mejora de la empleabilidad”. Y en términos similares, los arts. 40 y 41 ET afirman que “el periodo de consultas deberá versar sobre las causas motivadoras de la decisión empresarial y la posibilidad de evitar o reducir sus efectos, así como sobre las medidas necesarias para atenuar sus consecuencias para los trabajadores afectados”.
Aún si se interpreta, sobre la base de la documentación que el empresario debe remitir a los representantes legales al inicio del período de consultas y de las previsiones de la Directiva sobre despidos colectivos, que los criterios de designación de los trabajadores que van a verse afectados por la medida, deben formar parte de la negociación, no parece que ello comporte un cambio de régimen jurídico general que resulta del derecho de información del art. 64. 4.d) aludido. En el supuesto de que el empresario, para adoptar cualquiera de las decisiones de reorganización productiva previstas en los preceptos legales citados, se sirviera de un algoritmo, estaríamos ante un supuesto que encajaría plenamente en el 64.4.d), es decir, ante un algoritmo que puede afectar a la toma de una decisión laboral, respecto del cual lo que la Ley prevé es la obligación laboral de informar a los representantes legales de los trabajadores sobre “los parámetros, reglas e instrucciones en los que se basa”, en los términos examinados. Lo que de los preceptos estatutarios se deduce es la obligación de negociar sobre la decisión empresarial y sus efectos, con el propósito de minimizar o atenuar sus consecuencias laborales, no sobre la eventual utilización por el empresario de un algoritmo en el proceso decisional. Tal utilización quedaría sujeta al deber de información previsto en el art. 64.4. d), que en modo alguno obliga a negociar el algoritmo.
Desde estos presupuestos, no se entiende muy bien cuál es el propósito del Ministerio con la publicación de esta “guía” que ha publicitado a bombo y platillo. No parece serlo ofrecer seguridad jurídica, ni desde luego facilitar la innovación tecnológica empresarial en este ámbito ¿Quizás hacer recaer sobre las empresas nuevas cargas burocráticas y forzarlas a realizar auditorías sobre la gestión algorítmica de sus decisiones laborales? Hacia ello parece apuntar el último punto de la guía de marras.
Francisco Pérez de los Cobos Orihuel
Catedrático de Derecho del Trabajo de la Universidad Complutense de Madrid
Of Counsel en Oleart Abogados
La información de esta página no constituye asesoramiento jurídico en ningún campo de nuestra actuación profesional.
En la confianza estos comentarios sean de utilidad, si tienen cualquier duda sobre la información aquí reflejada póngase en contacto con oleartabogados@oleartabogados.com y en breve nos pondremos en contacto con Vdes.