lunes, 13 de septiembre de 2021

Unas notas a propósito de los Proyectos de Dictamen del Comité Económico y Social Europeo sobre la inteligencia artificial, y en especial sobre su impacto en las relaciones de trabajo.

 

1. La Sección de Mercado Único, Producción y Consumo del Comité Económico y Social Europeo ha aprobado recientemente dos importantes proyectos de Dictamen relativos a la inteligencia artificial, que contienen referencias de indudable interés sobre su impacto en las relaciones de trabajo y cuál debe ser la participación de las personas y organizaciones afectadas en su elaboración, conocimiento y difusión.

En la línea de seguir trabajando sobre esta temática de cara a mi participación en una próximajornada en la Universidad de Málaga  y en un seminario internacional en la Universidad de Jaén   , aún de forma virtual y a la espera de que la situación sanitaria permita recobrar plenamente las reuniones presenciales, paso revista a aquellos contenidos que considero de mayor interés para el mundo del trabajo.

Conviene señalar que los textos aprobados por la Comisión pasarán a ser debatidos y en su caso aprobados, en la sesión plenaria del CESE prevista para los días 22 y 23 de este mes de septiembre.

Además, también me referiré, dado que aborda igualmente la temática de la IA y de la digitalización y su impacto en el ámbito laboral, a un proyecto de Dictamen aprobado por la Sección de Empleo, Asuntos Sociales y Ciudadanía, a la espera de su definitiva aprobación en la misma sesión plenaria.

2. Me refiero en primer lugar a la propuesta de Dictamen  sobre la “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión [COM(2021) 206 final – 2021/106 (COD)]”.

Cabe recordar que la importancia de la Propuesta de Reglamento viene determinada en primer lugar por las definición de que debe entenderse por sistemas de inteligencia artificial, que será en concreto (art. 3) “el software que se desarrolla empleando una o varias de las técnicas y estrategias que figuran en el anexo I y que puede, para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa”. Hemos de acudir por consiguiente al anexo I, siendo aquellas las siguientes: “a) Estrategias de aprendizaje automático, incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo; b) Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico); c) Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización”.

Es importante igualmente referirse al art.6, que regula las reglas de clasificación para los sistemas de IA de alto riesgo, considerándolo como tal “cuando reúna las dos condiciones que se indican a continuación, con independencia de si se ha introducido en el mercado o se ha puesto en servicio sin estar integrado en los productos que se mencionan en las letras a) y b): a)el sistema de IA está destinado a ser utilizado como componente de seguridad de uno de los productos contemplados en la legislación de armonización de la Unión que se indica en el anexo II, o es en sí mismo uno de dichos productos; b)conforme a la legislación de armonización de la Unión que se indica en el anexo II, el producto del que el sistema de IA es componente de seguridad, o el propio sistema de IA como producto, debe someterse a una evaluación de la conformidad realizada por un organismo independiente para su introducción en el mercado o puesta en servicio”; si bien, lo realmente importante a efectos de mi exposición es la especificación recogida en el apartado 2 del artículo, donde se indica que “además de los sistemas de IA de alto riesgo mencionados en el apartado 1, también se considerarán de alto riesgo los sistemas de IA que figuran en el anexo III”.

Si acudimos al Anexo III , se consideran de alto riesgo en el ámbito del empleo, gestión de trabajadores  y acceso al autoempleo, los siguientes: “a) sistemas de IA destinados a utilizarse para la contratación o selección de personas físicas, especialmente para anunciar puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de entrevistas o pruebas; b) IA destinada a utilizarse para tomar decisiones relativas a la promoción y resolución de relaciones contractuales de índole laboral, a la asignación de tareas y al seguimiento y evaluación del rendimiento y la conducta de las personas en el marco de dichas relaciones….”. O sea, si me permiten la simplificación, se trata de todo aquello que afecta a la relación laboral, desde los estadios previos de acceso al empleo hasta su finalización.

Pues bien, el texto aprobado por la Sección de Mercado único, protección y consumo del CESE, tras indicar que la definición de IA recogida en la propuesta de Reglamento ha suscitado un amplio debate en la comunidad científica, formula algunas críticas a su redacción, y por ello solicita que se defina de esta manera: “Sistema de inteligencia artificial (sistema de IA)»: el software que puede, de forma automática y para un conjunto determinado de objetivos definidos por seres humanos, generar información de salida como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa”.

De acuerdo sustancialmente con la petición efectuada, el 21 de junio, por el SupervisorEuropeo de Protección de Datos y el Comité Europeo de Protección de Datos,  el CESE considera necesaria la prohibición expresa del reconocimiento automatizado de rasgos humanos en espacios de acceso público, “así como algunos otros usos de la IA que pueden dar lugar a una discriminación injusta”. En concreto, el CESE pide:

“-         la prohibición del uso de la IA para el reconocimiento biométrico automatizado, en los espacios de acceso público y privado (como los rostros, la forma de andar, la voz y otras señales biométricas), excepto con fines de autenticación en circunstancias específicas (por ejemplo, para facilitar el acceso a espacios sensibles desde el punto de vista de la seguridad);

-           la prohibición del uso de la IA para el reconocimiento automatizado, en los espacios de acceso público y privado, de señales de comportamiento humano;

-           la prohibición de los sistemas de IA que utilicen la biometría para clasificar a las personas en grupos en función de su etnia, género, orientación política o sexual o cualquier otro motivo de discriminación prohibido en el artículo 21 de la Carta de los Derechos Fundamentales de la Unión Europea;

-           la prohibición de utilizar la IA para inferir las emociones, la conducta, la intención o los rasgos de una persona física, excepto en casos muy específicos, como determinados fines relacionados con la salud, en los que sea importante reconocer las emociones del paciente”.

El CESE es crítico con respecto a que el cumplimiento de los cinco requisitos establecidos para la IA de alto riesgo sean suficientes para evitar el menoscabo de la salud, seguridad y derechos fundamentales, y más exactamente de algunos derechos menos mencionados en la Propuesta de Reglamento, entre los que cita algunos inequívocamente laborales: “el derecho a la dignidad humana, la presunción de inocencia, el derecho a unas condiciones de trabajo justas y equitativas, la libertad de asociación y de reunión y el derecho de huelga, entre otros”.

3. Dos apartados del Proyecto de Dictamen se refieren específicamente a las relaciones laborales y como puede influir la IA en las decisiones que se adopten y cuál debe ser la participación de las personas y organizaciones afectadas. Este es un debate nada nuevo en España, ya que ha sido, y seguirá siendo, muy intenso con ocasión de la aprobación del Real Decreto-Ley 9/2021, pendiente de su definitiva aprobación como Ley en la sesión plenaria del Senado a celebrar esta semana, y mas exactamente de la modificación incorporada en la Ley del Estatuto de los trabajadores, art. 64.4 d), para reconocer el derecho de información de la representación del personal “de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.

Pues bien, el CESE se manifiesta claramente a favor de este derecho de información y va más lejos al pedir que se garantice “la plena participación e información de los trabajadores y los interlocutores sociales en el proceso de toma de decisiones sobre el uso de la IA en el lugar de trabajo, así como sobre su desarrollo, adquisición y despliegue”.  Se formula tal petición tras constatar que el uso de sistemas de IA para el control, el seguimiento y la evaluación de trabajadores “plantea graves preocupaciones con respecto de sus derechos fundamentales a unas condiciones de trabajo equitativas y justas, así como a la información y consulta y a no ser despedidos sin causa justificada”, y también subraya la necesidad de tomar en consideración la normativa legal y convencional de los Estados miembros cuando afirma que “la inclusión de estos sistemas de IA en la lista de alto riesgo puede generar conflictos con la legislación laboral nacional y los convenios colectivos en materia de despido procedente e improcedente, condiciones de trabajo saludables y seguras e información a los trabajadores”.

Estamos muy habituados a referirnos a la IA desde la perspectiva de quienes pueden ser controlados en su vida laboral, pero mucho menos desde la de quienes deben llevar a cabo ese control y que van a utilizar la IA para ello. El CESE subraya, con pleno acierto a mi parecer, que dichos trabajadores que ejercen tareas de “vigilancia humana” deben recibir la formación adecuada para llevar a cabo su trabajo, y llama a protegerles jurídicamente cuando no apliquen, es decir ignoren, algunos resultados del sistema de IA o bien no los utilicen, supongo, aun cuando no lo diga el proyecto de Dictamen, en razón de sus conocimientos. Pues bien, el CESE pide expresamente que “deben establecerse medidas para evitar el miedo a represalias (como la degradación o despido) en caso de que se tome esa decisión.

Y relacionado estrechamente con las menciones anteriores a la intervención de las personas trabajadoras y sus organizaciones en el conocimiento y desarrollo de las decisiones basadas en la IA, y partiendo del enfoque basado en el control humano, petición efectuada en números informes y documentos de la comunidad científica, el CESE pide “firmemente” que la futura Ley de IA “contemple que determinadas decisiones sigan correspondiendo a las personas, especialmente en ámbitos donde estas decisiones tengan un elemento moral e implicaciones jurídicas o repercusión social, como en los ámbitos judicial y policial, los servicios sociales, la sanidad, la vivienda, los servicios financieros, las relaciones laborales y la enseñanza”. (la negrita es mía).

4. Paso a continuación, con mayor brevedad, a examinar el Proyecto de Dictamen  sobre la “Comunicación de la Comisión al Parlamento Europeo, al Consejo, al Comité Económico y  Social Europeo y al Comité de las Regiones – Fomentar un planteamiento europeo  en materia de inteligencia artificial [COM(2021) 205 final]”.

En primer lugar, El CESE resalta que el presente Dictamen “es indisociable del Dictamen sobre la propuesta conjunta de Reglamento, que trata los aspectos éticos y establece normas armonizadas”. Subraya la necesidad de que la ciudadanía  tenga confianza en el uso de la IA y manifiesta que la misma “inextricablemente ligada al derecho a la explicabilidad de los algoritmos y a la posibilidad de impugnar cualquier decisión que afecte a sus vidas, debiendo las personas mantener el control sobre las decisiones que se adopten; decisiones que deben adoptarse en el marco de una política de IA que permita que esta “sea sostenible en sus objetivos económicos, sociales y medioambientales y respete las responsabilidades económicas, sociales y medioambientales”. Es por ello que el CESE considera totalmente necesario que se potencie la investigación y que además “haya un entorno comercial global estable y de confianza, que permita a las empresas y a los trabajadores, hombres y mujeres, incorporar mejor la IA en beneficio de la investigación y la innovación”.

Desde la perspectiva más concreta de las relaciones de trabajo, el CESE, lógicamente, reitera tesis que ya han sido recogidas en el documento anteriormente explicado, e incluso enfatiza más su relevancia. En la línea de potenciación y refuerzo del diálogo social, considera que las organizaciones empresariales y sindicales “son agentes esenciales para prever la evolución de las competencias y la transformación de los puestos de trabajo”, y que el diálogo social “resulta fundamental para ayudar a la mano de obra afectada por la automatización de sus tareas”. Por otra parte, la atención de todos los sujetos implicados debe dirigirse también a facilitar la formación adecuada para las personas que más lo necesitan, quienes se encuentran en situación desempleo y pretenden incorporarse, o reincorporarse, al mercado de trabajo, y facilitar que todas las empresas, con especial atención a las de pequeña dimensión (que no olvidemos, dicho sea incidentalmente, que son la gran mayoría en España) puedan acceder a los programas formativos. Para el CESE es relevante destacar, y adoptar las medidas adecuadas para que ello sea posible, “la importancia de la cooperación entre los gobiernos, los centros educativos, los interlocutores sociales y las organizaciones de la sociedad civil implicadas a la hora de concebir y aplicar nuevos programas de enseñanza y formación continua, dirigidos de forma prioritaria a las personas desempleadas. Se necesitan formaciones adecuadas para las microempresas y las pymes, tanto para los empresarios como para las plantillas”.

Por último, y como reflexión general del proyecto de Dictamen y por ello perfectamente extrapolable a las relaciones de trabajo, se enfatiza nuevamente la importancia de la confianza de la ciudadanía como “piedra angular de una de una sociedad digitalizada”, y valora así de manera positiva “el enfoque de la Comisión en todos los ámbitos encargados de garantizar el interés general y, en particular, el interés de la ciudadanía, los consumidores, así como de los trabajadores, hombres y mujeres, y las empresas, incluidas las del sector de la economía social, para aumentar el nivel general de confianza en la IA: la protección de los derechos fundamentales, la ciberseguridad, la protección de los datos, la propiedad intelectual y el aprovechamiento sostenible y eficaz de los recursos, sin dejar de lado las cuestiones reglamentarias relacionadas con la innovación. Parece importante precisar con exactitud los posibles peligros derivados del abuso de la IA y proponer remedios adecuados.”.

4. Por último, me refiero al Proyecto de Dictamen “Componentes clave de un trabajo de calidad sostenible durante y después de la recuperación”, , solicitado como Dictamen exploratorio por la Presidencia eslovena, y cuyo resumen es el siguiente: “… tiene por objeto presentar los elementos clave de un trabajo de calidad sostenible durante y después de la recuperación. El CESE considera que la calidad del trabajo es uno de los componentes fundamentales de la calidad de vida. El principio de la calidad del trabajo para la calidad de vida debe seguirse, ya que es un requisito previo para el desarrollo social sostenible. Por ello, el CESE cree firmemente que debe recibir una atención especial en las políticas de la UE, ya que debe prevenir los riesgos de desigualdad, pobreza, exclusión social y competencia desleal. El CESE señala que el Mecanismo de Recuperación y Resiliencia no aborda directamente los componentes del trabajo de calidad, por lo que pide a la Comisión que complemente esta parte del mecanismo. No hay que olvidar a los grupos vulnerables, como los trabajadores precarios y los jóvenes, que han sido los más afectados por la epidemia…”.

Refiriéndonos en concreto a sus menciones y referencia  al impacto de la tecnología en general, y de la IA en particular, en las relaciones de trabajo, el CESE subraya que debería prestarse especial atención a la adopción de legislación sobre la inteligencia artificial y a garantizar “que todas las partes interesadas tengan la oportunidad de participar en la adopción de nuevas soluciones, mediante la consulta y la negociación con los trabajadores y los empresarios”, y a la adopción de medidas que proporciones respuestas adecuadas “.a las carencias de cualificaciones y a la transición del mercado laboral”.

Para el CESE, el concepto de trabajo de calidad sostenible es uno de los componentes esenciales de la calidad de vida “y debe considerarse junto con el concepto de desarrollo sostenible, teniendo en cuenta el contexto más amplio del crecimiento y el empleo sostenibles, en particular la transición a una economía verde y la digitalización, que debe ser justa para todas las partes interesadas”, enfatizando una vez más la conveniencia de prestar especial atención “al impacto y las consecuencias de la digitalización y de la introducción de la inteligencia artificial en los puestos de trabajo”.

El Proyecto de Dictamen dedica un apartado específico a lo que denomina “tener en cuenta las ventajas y las trampas de la digitalización y la inteligencia artificial, y 5) el papel de los interlocutores sociales”. Como ya ha hecho en los dos proyectos de Dictamen anteriormente analizados, destaca el gran impacto que la digitalización tiene en las relaciones laborales “dadas las consecuencias positivas y negativas de que los empresarios la apliquen en los procesos de trabajo”.

En una cuidada redacción para lograr el máximo consenso de todos los grupos  integrantes del CES, se aboga por la necesidad, en la búsqueda de un trabajo de calidad, de la necesaria supervisión de la evolución del mercado laboral “y garantizar la existencia de mecanismos adecuados para proteger los derechos fundamentales de los trabajadores, sin obstaculizar el desarrollo de las soluciones digitales”, con una implicación activa, a fin y efecto de lograr ese objetivo, tanto de la UE como de los Estados miembros, los interlocutores sociales y otras partes interesadas”.

Por fin, y siendo consciente de los riesgos que la introducción de la IA genera en prácticamente todas las fases de la vida laboral, desde la previa de acceso al empleo hasta la de finalización de la relación contractual y  pasando por la de organización de las condiciones de trabajo, el CES enfatiza la urgencia  de aquello que califica como “gestionar la inteligencia artificial en el lugar de trabajo, en particular en lo que respecta a la prevención de las prácticas discriminatorias, la vigilancia ilegal de los trabajadores -incluido el derecho a la desconexión- y otros tratos perjudiciales para los trabajadores”, y nuevamente, por si a alguien le quedaba alguna duda de la importancia del mundo empresarial y sindical en el proceso de toma decisiones, manifiesta que “los interlocutores sociales deben ser incluidos en los procesos de adopción y aplicación de la legislación sobre inteligencia artificial”.

Buena lectura. Continuara, seguro.

 

No hay comentarios: