1. La Sección de
Mercado Único, Producción y Consumo del Comité Económico y Social Europeo ha
aprobado recientemente dos importantes proyectos de Dictamen relativos a la
inteligencia artificial, que contienen referencias de indudable interés sobre su
impacto en las relaciones de trabajo y cuál debe ser la participación de las
personas y organizaciones afectadas en su elaboración, conocimiento y difusión.
En la línea de
seguir trabajando sobre esta temática de cara a mi participación en una próximajornada en la Universidad de Málaga y en un seminario internacional en la Universidad de Jaén , aún de forma virtual y a la espera de que la situación sanitaria permita
recobrar plenamente las reuniones presenciales, paso revista a aquellos
contenidos que considero de mayor interés para el mundo del trabajo.
Conviene señalar
que los textos aprobados por la Comisión pasarán a ser debatidos y en su caso
aprobados, en la sesión plenaria del CESE prevista para los días 22 y 23 de
este mes de septiembre.
Además, también me
referiré, dado que aborda igualmente la temática de la IA y de la
digitalización y su impacto en el ámbito laboral, a un proyecto de Dictamen
aprobado por la Sección de Empleo, Asuntos Sociales y Ciudadanía, a la espera
de su definitiva aprobación en la misma sesión plenaria.
2. Me refiero en
primer lugar a la propuesta de Dictamen sobre la “Propuesta de Reglamento del Parlamento Europeo y del Consejo por el
que se establecen normas armonizadas en materia de inteligencia artificial (Ley
de Inteligencia Artificial) y se modifican determinados actos legislativos de
la Unión [COM(2021) 206 final – 2021/106 (COD)]”.
Cabe recordar que
la importancia de la Propuesta de Reglamento viene determinada en primer lugar
por las definición de que debe entenderse por sistemas de inteligencia
artificial, que será en concreto (art. 3) “el software que se desarrolla
empleando una o varias de las técnicas y estrategias que figuran en el anexo I
y que puede, para un conjunto determinado de objetivos definidos por seres
humanos, generar información de salida como contenidos, predicciones,
recomendaciones o decisiones que influyan en los entornos con los que
interactúa”. Hemos de acudir por consiguiente al anexo I, siendo aquellas las
siguientes: “a) Estrategias de aprendizaje automático, incluidos el aprendizaje
supervisado, el no supervisado y el realizado por refuerzo, que emplean una
amplia variedad de métodos, entre ellos el aprendizaje profundo; b) Estrategias
basadas en la lógica y el conocimiento, especialmente la representación del
conocimiento, la programación (lógica) inductiva, las bases de conocimiento,
los motores de inferencia y deducción, los sistemas expertos y de razonamiento
(simbólico); c) Estrategias estadísticas, estimación bayesiana, métodos de
búsqueda y optimización”.
Es importante
igualmente referirse al art.6, que regula las reglas de clasificación para los
sistemas de IA de alto riesgo, considerándolo como tal “cuando reúna las dos
condiciones que se indican a continuación, con independencia de si se ha
introducido en el mercado o se ha puesto en servicio sin estar integrado en los
productos que se mencionan en las letras a) y b): a)el sistema de IA está
destinado a ser utilizado como componente de seguridad de uno de los productos
contemplados en la legislación de armonización de la Unión que se indica en el
anexo II, o es en sí mismo uno de dichos productos; b)conforme a la legislación
de armonización de la Unión que se indica en el anexo II, el producto del que
el sistema de IA es componente de seguridad, o el propio sistema de IA como
producto, debe someterse a una evaluación de la conformidad realizada por un
organismo independiente para su introducción en el mercado o puesta en
servicio”; si bien, lo realmente importante a efectos de mi exposición es la
especificación recogida en el apartado 2 del artículo, donde se indica que
“además de los sistemas de IA de alto riesgo mencionados en el apartado 1,
también se considerarán de alto riesgo los sistemas de IA que figuran en el
anexo III”.
Si acudimos al
Anexo III , se consideran de alto riesgo en el ámbito del empleo, gestión de
trabajadores y acceso al autoempleo, los
siguientes: “a) sistemas de IA destinados a utilizarse para la contratación o
selección de personas físicas, especialmente para anunciar puestos vacantes,
clasificar y filtrar solicitudes o evaluar a candidatos en el transcurso de
entrevistas o pruebas; b) IA destinada a utilizarse para tomar decisiones
relativas a la promoción y resolución de relaciones contractuales de índole
laboral, a la asignación de tareas y al seguimiento y evaluación del
rendimiento y la conducta de las personas en el marco de dichas relaciones….”.
O sea, si me permiten la simplificación, se trata de todo aquello que afecta a
la relación laboral, desde los estadios previos de acceso al empleo hasta su
finalización.
Pues bien, el texto
aprobado por la Sección de Mercado único, protección y consumo del CESE, tras
indicar que la definición de IA recogida en la propuesta de Reglamento ha
suscitado un amplio debate en la comunidad científica, formula algunas críticas
a su redacción, y por ello solicita que se defina de esta manera: “Sistema de
inteligencia artificial (sistema de IA)»: el software que puede, de forma
automática y para un conjunto determinado de objetivos definidos por seres
humanos, generar información de salida como contenidos, predicciones,
recomendaciones o decisiones que influyan en los entornos con los que
interactúa”.
De acuerdo
sustancialmente con la petición efectuada, el 21 de junio, por el SupervisorEuropeo de Protección de Datos y el Comité Europeo de Protección de Datos, el CESE considera necesaria la prohibición expresa del reconocimiento
automatizado de rasgos humanos en espacios de acceso público, “así como algunos
otros usos de la IA que pueden dar lugar a una discriminación injusta”. En
concreto, el CESE pide:
“- la prohibición del uso de la IA para el
reconocimiento biométrico automatizado, en los espacios de acceso público y
privado (como los rostros, la forma de andar, la voz y otras señales
biométricas), excepto con fines de autenticación en circunstancias específicas
(por ejemplo, para facilitar el acceso a espacios sensibles desde el punto de
vista de la seguridad);
- la prohibición del uso de la IA para
el reconocimiento automatizado, en los espacios de acceso público y privado, de
señales de comportamiento humano;
- la prohibición de los sistemas de IA
que utilicen la biometría para clasificar a las personas en grupos en función
de su etnia, género, orientación política o sexual o cualquier otro motivo de
discriminación prohibido en el artículo 21 de la Carta de los Derechos
Fundamentales de la Unión Europea;
- la prohibición de utilizar la IA para
inferir las emociones, la conducta, la intención o los rasgos de una persona
física, excepto en casos muy específicos, como determinados fines relacionados
con la salud, en los que sea importante reconocer las emociones del paciente”.
El CESE es crítico
con respecto a que el cumplimiento de los cinco requisitos establecidos para la
IA de alto riesgo sean suficientes para evitar el menoscabo de la salud,
seguridad y derechos fundamentales, y más exactamente de algunos derechos menos
mencionados en la Propuesta de Reglamento, entre los que cita algunos inequívocamente
laborales: “el derecho a la dignidad humana, la presunción de inocencia, el
derecho a unas condiciones de trabajo justas y equitativas, la libertad de
asociación y de reunión y el derecho de huelga, entre otros”.
3. Dos apartados
del Proyecto de Dictamen se refieren específicamente a las relaciones laborales
y como puede influir la IA en las decisiones que se adopten y cuál debe ser la
participación de las personas y organizaciones afectadas. Este es un debate
nada nuevo en España, ya que ha sido, y seguirá siendo, muy intenso con ocasión
de la aprobación del Real Decreto-Ley 9/2021, pendiente de su definitiva
aprobación como Ley en la sesión plenaria del Senado a celebrar esta semana, y
mas exactamente de la modificación incorporada en la Ley del Estatuto de los
trabajadores, art. 64.4 d), para reconocer el derecho de información de la representación
del personal “de los parámetros, reglas e instrucciones en los que se basan los
algoritmos o sistemas de inteligencia artificial que afectan a la toma de
decisiones que pueden incidir en las condiciones de trabajo, el acceso y
mantenimiento del empleo, incluida la elaboración de perfiles”.
Pues bien, el CESE
se manifiesta claramente a favor de este derecho de información y va más lejos
al pedir que se garantice “la plena participación e información de los
trabajadores y los interlocutores sociales en el proceso de toma de decisiones sobre
el uso de la IA en el lugar de trabajo, así como sobre su desarrollo,
adquisición y despliegue”. Se formula tal
petición tras constatar que el uso de sistemas de IA para el control, el
seguimiento y la evaluación de trabajadores “plantea graves preocupaciones con
respecto de sus derechos fundamentales a unas condiciones de trabajo
equitativas y justas, así como a la información y consulta y a no ser
despedidos sin causa justificada”, y también subraya la necesidad de tomar en
consideración la normativa legal y convencional de los Estados miembros cuando
afirma que “la inclusión de estos sistemas de IA en la lista de alto riesgo
puede generar conflictos con la legislación laboral nacional y los convenios
colectivos en materia de despido procedente e improcedente, condiciones de
trabajo saludables y seguras e información a los trabajadores”.
Estamos muy
habituados a referirnos a la IA desde la perspectiva de quienes pueden ser controlados
en su vida laboral, pero mucho menos desde la de quienes deben llevar a cabo
ese control y que van a utilizar la IA para ello. El CESE subraya, con pleno
acierto a mi parecer, que dichos trabajadores que ejercen tareas de “vigilancia
humana” deben recibir la formación adecuada para llevar a cabo su trabajo, y
llama a protegerles jurídicamente cuando no apliquen, es decir ignoren, algunos
resultados del sistema de IA o bien no los utilicen, supongo, aun cuando no lo
diga el proyecto de Dictamen, en razón de sus conocimientos. Pues bien, el CESE
pide expresamente que “deben establecerse medidas para evitar el miedo a
represalias (como la degradación o despido) en caso de que se tome esa
decisión.
Y relacionado
estrechamente con las menciones anteriores a la intervención de las personas
trabajadoras y sus organizaciones en el conocimiento y desarrollo de las
decisiones basadas en la IA, y partiendo del enfoque basado en el control
humano, petición efectuada en números informes y documentos de la comunidad
científica, el CESE pide “firmemente” que la futura Ley de IA “contemple que
determinadas decisiones sigan correspondiendo a las personas, especialmente en
ámbitos donde estas decisiones tengan un elemento moral e implicaciones
jurídicas o repercusión social, como en los ámbitos judicial y policial, los
servicios sociales, la sanidad, la vivienda, los servicios financieros, las
relaciones laborales y la enseñanza”. (la negrita es mía).
4. Paso a continuación,
con mayor brevedad, a examinar el Proyecto de Dictamen sobre la “Comunicación de la Comisión al Parlamento Europeo, al Consejo, al
Comité Económico y Social Europeo y al
Comité de las Regiones – Fomentar un planteamiento europeo en materia de inteligencia artificial [COM(2021)
205 final]”.
En primer lugar,
El CESE resalta que el presente Dictamen “es indisociable del Dictamen sobre la
propuesta conjunta de Reglamento, que trata los aspectos éticos y establece
normas armonizadas”. Subraya la necesidad de que la ciudadanía tenga confianza en el uso de la IA y
manifiesta que la misma “inextricablemente ligada al derecho a la
explicabilidad de los algoritmos y a la posibilidad de impugnar cualquier
decisión que afecte a sus vidas, debiendo las personas mantener el control
sobre las decisiones que se adopten; decisiones que deben adoptarse en el marco
de una política de IA que permita que esta “sea sostenible en sus objetivos
económicos, sociales y medioambientales y respete las responsabilidades
económicas, sociales y medioambientales”. Es por ello que el CESE considera
totalmente necesario que se potencie la investigación y que además “haya un
entorno comercial global estable y de confianza, que permita a las empresas y a
los trabajadores, hombres y mujeres, incorporar mejor la IA en beneficio de la
investigación y la innovación”.
Desde la
perspectiva más concreta de las relaciones de trabajo, el CESE, lógicamente,
reitera tesis que ya han sido recogidas en el documento anteriormente
explicado, e incluso enfatiza más su relevancia. En la línea de potenciación y
refuerzo del diálogo social, considera que las organizaciones empresariales y
sindicales “son agentes esenciales para prever la evolución de las competencias
y la transformación de los puestos de trabajo”, y que el diálogo social
“resulta fundamental para ayudar a la mano de obra afectada por la
automatización de sus tareas”. Por otra parte, la atención de todos los sujetos
implicados debe dirigirse también a facilitar la formación adecuada para las
personas que más lo necesitan, quienes se encuentran en situación desempleo y pretenden
incorporarse, o reincorporarse, al mercado de trabajo, y facilitar que todas
las empresas, con especial atención a las de pequeña dimensión (que no
olvidemos, dicho sea incidentalmente, que son la gran mayoría en España) puedan
acceder a los programas formativos. Para el CESE es relevante destacar, y
adoptar las medidas adecuadas para que ello sea posible, “la importancia de la
cooperación entre los gobiernos, los centros educativos, los interlocutores
sociales y las organizaciones de la sociedad civil implicadas a la hora de
concebir y aplicar nuevos programas de enseñanza y formación continua,
dirigidos de forma prioritaria a las personas desempleadas. Se necesitan
formaciones adecuadas para las microempresas y las pymes, tanto para los
empresarios como para las plantillas”.
Por último, y como
reflexión general del proyecto de Dictamen y por ello perfectamente
extrapolable a las relaciones de trabajo, se enfatiza nuevamente la importancia
de la confianza de la ciudadanía como “piedra angular de una de una sociedad
digitalizada”, y valora así de manera positiva “el enfoque de la Comisión en
todos los ámbitos encargados de garantizar el interés general y, en particular,
el interés de la ciudadanía, los consumidores, así como de los trabajadores, hombres
y mujeres, y las empresas, incluidas las del sector de la economía social, para
aumentar el nivel general de confianza en la IA: la protección de los derechos
fundamentales, la ciberseguridad, la protección de los datos, la propiedad
intelectual y el aprovechamiento sostenible y eficaz de los recursos, sin dejar
de lado las cuestiones reglamentarias relacionadas con la innovación. Parece
importante precisar con exactitud los posibles peligros derivados del abuso de
la IA y proponer remedios adecuados.”.
4. Por último, me
refiero al Proyecto de Dictamen “Componentes clave de un trabajo de calidad
sostenible durante y después de la recuperación”, ,
solicitado como Dictamen exploratorio por la Presidencia eslovena, y cuyo
resumen es el siguiente: “… tiene por objeto presentar los elementos clave de
un trabajo de calidad sostenible durante y después de la recuperación. El CESE
considera que la calidad del trabajo es uno de los componentes fundamentales de
la calidad de vida. El principio de la calidad del trabajo para la calidad de
vida debe seguirse, ya que es un requisito previo para el desarrollo social
sostenible. Por ello, el CESE cree firmemente que debe recibir una atención
especial en las políticas de la UE, ya que debe prevenir los riesgos de
desigualdad, pobreza, exclusión social y competencia desleal. El CESE señala
que el Mecanismo de Recuperación y Resiliencia no aborda directamente los
componentes del trabajo de calidad, por lo que pide a la Comisión que
complemente esta parte del mecanismo. No hay que olvidar a los grupos
vulnerables, como los trabajadores precarios y los jóvenes, que han sido los
más afectados por la epidemia…”.
Refiriéndonos en
concreto a sus menciones y referencia al
impacto de la tecnología en general, y de la IA en particular, en las
relaciones de trabajo, el CESE subraya que debería prestarse especial atención
a la adopción de legislación sobre la inteligencia artificial y a garantizar
“que todas las partes interesadas tengan la oportunidad de participar en la
adopción de nuevas soluciones, mediante la consulta y la negociación con los
trabajadores y los empresarios”, y a la adopción de medidas que proporciones
respuestas adecuadas “.a las carencias de cualificaciones y a la transición del
mercado laboral”.
Para el CESE, el
concepto de trabajo de calidad sostenible es uno de los componentes esenciales
de la calidad de vida “y debe considerarse junto con el concepto de desarrollo
sostenible, teniendo en cuenta el contexto más amplio del crecimiento y el
empleo sostenibles, en particular la transición a una economía verde y la
digitalización, que debe ser justa para todas las partes interesadas”,
enfatizando una vez más la conveniencia de prestar especial atención “al
impacto y las consecuencias de la digitalización y de la introducción de la
inteligencia artificial en los puestos de trabajo”.
El Proyecto de
Dictamen dedica un apartado específico a lo que denomina “tener en cuenta las
ventajas y las trampas de la digitalización y la inteligencia artificial, y 5)
el papel de los interlocutores sociales”. Como ya ha hecho en los dos proyectos
de Dictamen anteriormente analizados, destaca el gran impacto que la
digitalización tiene en las relaciones laborales “dadas las consecuencias
positivas y negativas de que los empresarios la apliquen en los procesos de
trabajo”.
En una cuidada
redacción para lograr el máximo consenso de todos los grupos integrantes del CES, se aboga por la
necesidad, en la búsqueda de un trabajo de calidad, de la necesaria supervisión
de la evolución del mercado laboral “y garantizar la existencia de mecanismos
adecuados para proteger los derechos fundamentales de los trabajadores, sin
obstaculizar el desarrollo de las soluciones digitales”, con una implicación
activa, a fin y efecto de lograr ese objetivo, tanto de la UE como de los
Estados miembros, los interlocutores sociales y otras partes interesadas”.
Por fin, y siendo
consciente de los riesgos que la introducción de la IA genera en prácticamente
todas las fases de la vida laboral, desde la previa de acceso al empleo hasta
la de finalización de la relación contractual y
pasando por la de organización de las condiciones de trabajo, el CES
enfatiza la urgencia de aquello que
califica como “gestionar la inteligencia artificial en el lugar de trabajo, en
particular en lo que respecta a la prevención de las prácticas
discriminatorias, la vigilancia ilegal de los trabajadores -incluido el derecho
a la desconexión- y otros tratos perjudiciales para los trabajadores”, y
nuevamente, por si a alguien le quedaba alguna duda de la importancia del mundo
empresarial y sindical en el proceso de toma decisiones, manifiesta que “los
interlocutores sociales deben ser incluidos en los procesos de adopción y
aplicación de la legislación sobre inteligencia artificial”.
Buena lectura.
Continuara, seguro.
No hay comentarios:
Publicar un comentario