1. El Pleno del Consejo Económico y Social aprobó en su sesión ordinaria del día 25 de marzo el Dictamen sobre el Anteproyecto de Ley “para el buen uso y la gobernanza de la inteligencia artificial”, que había sido solicitado el día 3 de marzo por el Ministerio para la Transformación Digital y de la Función Pública.
La historia de
dicho Anteproyecto se inició hace un año, con su aprobación por el Consejo de
Ministros celebrado el 11 de marzo, del que daba cuenta una amplia nota de prensa del citado Ministerio, titulada “El
Gobierno da luz verde al anteproyecto de ley para un uso ético, inclusivo y
beneficioso de la Inteligencia Artificial”, sintetizado en estos términos:
“El Gobierno ha
dado hoy luz verde al anteproyecto de ley de gobernanza de la Inteligencia
Artificial (IA), que busca garantizar un uso de la Inteligencia Artificial que
sea ético, inclusivo y beneficioso para las personas. Este instrumento
normativo adaptará la legislación española al reglamento europeo de IA, ya en
vigor, bajo un enfoque regulador que impulsa la innovación.
“La IA es una
herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar
a la democracia; puede tener buenos usos o malos usos. La IA puede ser
utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes
naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir
bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es
oportuno su buen uso y gobernanza”, ha destacado el ministro para la
Transformación Digital y de la Función Pública, Óscar López, en la rueda de
prensa posterior al Consejo de Ministros.
El anteproyecto de
ley, que se tramitará por la vía de urgencia, seguirá ahora los trámites
preceptivos antes de volver al Consejo de Ministros para su aprobación
definitiva como proyecto de ley y envío a las Cortes para su aprobación.
Con el objetivo de
que la Unión Europea disponga de un marco legal común para el desarrollo,
comercialización y uso de sistemas de IA que eviten los riesgos para las
personas, el reglamento prohíbe determinados usos maliciosos de la IA,
introduce obligaciones más rigurosas para sistemas considerados de alto riesgo
y establece unos requisitos mínimos de transparencia para el resto.
Incorpora, además,
un nuevo derecho digital de retirada provisional del mercado español de
sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado
un incidente grave, como el fallecimiento de una persona”.
Al referirse a los
sistemas de alto riesgo, encontramos en dicho texto una referencia concreta al
ámbito laboral, poniendo como ejemplos de infracciones graves “el no introducir
supervisión humana en un sistema de IA que incorpore la biometría en el trabajo
para controlar la presencialidad de los trabajadores o no disponer de un
sistema de gestión de calidad en robots con IA que desarrollan las tareas de
inspección y mantenimiento en sectores industriales, entre otros. Las sanciones
oscilarán en estos casos entre 500.000 euros y 7,5 millones de euros o entre el
1% y el 2% del volumen de negocio mundial”.
La lectura del
Anteproyecto , al que se acompañaba su Memoria de Análisis de Impacto Normativo (MAIN), y la
del Dictamen del CES, junto con otros documentos que he tenido oportunidad de
leer, en su totalidad o en sus síntesis, en los últimos días, me ha animado a
redactar una nueva entrada sobre los debates existentes que versan sobre el
impacto de la IA, y mucho más concretamente en la vida laboral, es decir en la
vida cotidiana de millones de personas.
Continuo, pues,
con mis aportaciones y reflexiones plasmadas en artículos anteriores en este
blog, siendo la dos más recientes el texto de mi intervención en el acto de
clausura de la Jornada organizada por Esade Forum el 27 de febrero , y su puesta al día en la entrada “Nuevas
aportaciones legales y doctrinales sobre el impacto de la Inteligencia
Artificial en las relaciones de trabajo y en la vida política, económica y
social”
2. Ánimo, en el
que también tiene mucho que ver la celebración de dos próximos encuentros sindicales
y académicos
El primero, la
celebración de las novenas, y muy consolidadas, jornadas jurídicas de Derecho
Laboral y Sindical de CCOO de Cataluña, los días 28 y 29 de mayo, dedicadas al “Impacto
de la Inteligencia Artificial en las Relaciones Laborales y en la Jurisdicción
Social”, con ponencias a cargo de la profesora Henar Álvarez y de los profesores
Xavier Solà, Miguel Ángel Purcalla y Miguel Arenas, en las que participaré en
el acto de presentación. Serán abordadas la relevancia d ellos derechos de
información y consulta, la prevención de los riesgos laborales desde una
perspectiva de género, la aplicación de la IA en la resolución de los
conflictos laborales, y su impacto en la Seguridad Social. sistema
El segundo, la celebración
en la Universidad de Valencia del II Congreso Internacional sobre la IA en elmundo del trabajo, dedicado a “La Directiva de Trabajo en Plataformas, el
Reglamento General de Protección de Datos, y el Reglamento de Inteligencia
Artificial”, dirigido por los profesores Adrián Todolí Signes e Ignasi Beltrán
de Heredia
, en cuya presentación se anuncia que los temas a tratar, todos ellos de
indudable importancia, serán los siguientes: “i) Los efectos de la IA en el
mercado de trabajo, ii) Trasparencia algorítmica, derechos de información y
protección de datos, iii) Discriminación algorítmica en el contrato de trabajo iv)
El control tecnológico de la actividad laboral y las evaluaciones de
productividad automatizadas v) Controles biométricos y de salud, vi) Prevención
de riesgos laborales y usos de la Inteligencia Artificial, vii) Normativa
europea aplicable al contrato de trabajo en materia de Inteligencia Artificial
y algoritmos, viii) Los neuroderechos en el ámbito laboral, ix) La evaluación
de impacto en la directiva de plataformas, el RGPD y el RIA”.
Sus organizadores
han puesto en marcha ya la calificada de “segunda iniciativa interblogs de
Derecho del Trabajo”, tras el éxito alcanzado en la primera con ocasión del
primer congreso internacional sobre la IA en el mundo del trabajo, que
nuevamente contará con un amplio elenco de laboralistas y en el que participaré
en la entrada de clausura (además de sus directores, la profesora Ana Belén
Muños y los profesores Miguel Rodríguez-Piñero, Jesus R. Mercader, José María
Goerlich, Daniel Pérez y Antonio Fernández).
A buen seguro que en
las ponencias e intervenciones, tanto del Congreso como en los artículos de
blog, se hará mención y se analizará el informe del grupo de personas expertas
sobre la transposición de la Directiva 2024/2831 del Parlamento Europeo y del
Consejo, de 23 de octubre de 2024, relativa a la mejora de las condiciones
laborales en el trabajo en plataformas , y muy especial de su capítulo III, dedicado a la gestión algorítmica. En la
presentación del informe se explica que “...
“Al igual que con
otras directivas en el ámbito del Derecho laboral, la Comisión creó un grupo
informal de expertos para asesorar y apoyar a la Dirección General de Empleo, Asuntos
Sociales e Inclusión en el seguimiento de la transposición correcta y oportuna
de la Directiva por parte de los Estados miembros. El grupo debatió todas las
disposiciones de la Directiva. Además, brindó a los expertos nacionales, los
interlocutores sociales y los servicios de la Comisión la oportunidad de
intercambiar opiniones sobre los avances en la transposición de la Directiva a nivel
nacional. El grupo de expertos estaba compuesto por expertos nacionales en
representación de los gobiernos de los veintisiete Estados miembros, los
Estados del EEE/AELC y los interlocutores sociales europeos. El grupo estuvo
presidido por un representante de la Dirección General de Empleo, Asuntos
Sociales e Inclusión. La Dirección General de Empleo, Asuntos Sociales e
Inclusión prestó apoyo administrativo al grupo. Se celebraron un total de ocho
reuniones entre diciembre de 2024 y diciembre de 2025, durante las cuales se
debatieron ampliamente las principales cuestiones surgidas en relación con la
aplicación de la Directiva. El presente informe es el resultado de dichos
debates. Las referencias a otras normas legislativas de la UE se refieren a las
versiones vigentes durante los debates... Si bien su objetivo es facilitar el
intercambio de opiniones y promover una mejor comprensión común de las
disposiciones de la Directiva, los servicios de la Comisión no han pretendido interferir
en modo alguno en el proceso de transposición a nivel nacional, ni interferir
en el derecho de interpretación del Tribunal de Justicia de la Unión Europea ni
de otros tribunales competentes. Lo mismo se aplica a los expertos del Grupo de
Expertos que, en sus respectivos países, son responsables de elaborar proyectos
de ley y/o supervisar los debates entre los interlocutores sociales en el marco
de la transposición basada en convenios colectivos. El informe no es en absoluto
vinculante y no debe considerarse que represente la posición oficial de ningún gobierno
participante en el Grupo de Expertos, ni la de la Comisión o los interlocutores
sociales europeos. El informe no exime en modo alguno a los Estados miembros de
la responsabilidad de garantizar la correcta transposición y aplicación de la
Directiva, y tampoco exime a la Comisión de su obligación de supervisar dicha
labor”.
Vamos allá.
3. Lógicamente, el
primer documento que deseo destacar es el que ha dado pie a esta entrada, es
decir el Anteproyecto de Ley para el buen uso y gobernanza de la inteligencia
artificial, que concreta en nuestro ordenamiento jurídico interno el Reglamento(UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 estableciendo “un régimen sancionador y un esquema de sanciones que se plantean
como efectivas, proporcionadas y disuasoria. Se tienen en cuenta condiciones
específicas de las pymes y empresas emergentes, procurando con ello asegurar el
equilibrio entre el cumplimiento de las obligaciones establecidas por el
Reglamento y la protección de la innovación científica y técnica”, y cuya tesis
central se encuentra en el tercer párrafo de su exposición de motivo,
considerando necesario “definir un marco normativo de uso de esta tecnología
que promueva la adopción de una IA fiable y centrada en el ser humano”.
Su capítulo IV
está dedicado a infracciones y sanciones, siguiendo el citado Reglamento, y encontramos
en el art. 20, tipificada como infracción grave por parte de los responsables
del despliegue de sistema de IA, “f) El incumplimiento del artículo 26.7 del
Reglamento (UE) 2024/1689, de 13 de junio, relativo a la obligación, cuando se
despliegue un sistema de IA de alto riesgo en un lugar de trabajo, de informar
a los representantes de las personas trabajadoras y a las personas trabajadoras
afectadas de que estarán expuestos a la utilización de éste”. También es
necesario hacer referencia al art. 27 en el que se estable la graduación de las
sanciones, en el que, tras disponer con carácter general que “Las
Administraciones públicas deberán guardar la debida adecuación entre la sanción
y el hecho constitutivo de la infracción, considerando especialmente su
repercusión y su trascendencia por lo que respecta a la salud y seguridad de
las personas y a sus derechos fundamentales”, dispone que “En particular,
deberá evaluarse para cada caso concreto: ... l) La existencia de sucesión de
empresas o la aplicación de la doctrina del levantamiento del velo en
situaciones abusivas o fraudulentas”.
Recordemos en este
punto que el art. 26 del Reglamento, dedicado a “Obligaciones de los
responsables del despliegue de sistemas de IA de alto riesgo”, dispone en su
apartado 7 que “Antes de poner en servicio o utilizar un sistema de IA de alto
riesgo en el lugar de trabajo, los responsables del despliegue que sean
empleadores informarán a los representantes de los trabajadores y a los
trabajadores afectados de que estarán expuestos a la utilización del sistema de
IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo
a las normas y procedimientos establecidos en el Derecho de la Unión y nacional
y conforme a las prácticas en materia de información a los trabajadores y sus
representantes·.
4. Pues bien, es
justamente sobre este punto sobre el que se formula una observación concreta en
el Dictamen del CES, habiendo pasado con anterioridad por el examen del contenido
del Anteproyecto remitido y formulado “una valoración positiva la iniciativa de
regular, en una norma con rango de ley, el sistema de autoridades para la
gobernanza del uso de la IA y el régimen de infracciones y sanciones, además de
reglas para el buen uso en la AGE, que permitirá cumplir, con la adecuada
adaptación para España, las previsiones de la normativa comunitaria y
específicamente del RIA”.
No obstante, el
CES critica la ausencia de diálogo social en su elaboración, y expone que “habría
sido aconsejable remitirlo a las organizaciones sindicales y empresariales más
representativas a fin de recabar directamente su opinión, al amparo de la Ley
50/1997, de 27 de noviembre, del Gobierno (artículo 26.6), más allá de que,
como recoge la MAIN que lo acompaña, se llevase a cabo el trámite de audiencia
e información pública general”. Para el
CES, el texto de la futura norma debería recoger “más literalmente” lo
dispuesto en el art 26.7 del RIA, es decir facilitar la información a los
representantes del personal “antes de poner en servicio o utilizar el sistema”,
ya que de tal manera se garantizaría “la eficacia de este derecho de
información haciéndolo efectivo con carácter previo a la utilización de tales
sistemas
5. Sigo con
documentos internos, y me refiero brevemente a continuación al Informe aprobado
por la Ponencia de “análisis de las amenazas en el ciberespacio, en la era de
la Inteligencia Artificial y la Computación Cuántica, para la elaboración de un
informe de riesgos y recomendaciones de mejora”, constituida en el seno de la
Comisión Mixta de Seguridad Nacional, publicado en el Boletín de las Cortes Generales
el 27 de marzo , al que se adjuntan algunas propuestas de modificación suscritas por diversos
grupos parlamentarios.
El objeto del informe
es, tal como se explica en su introducción, “presentar y reflejar de manera
sistemática las conclusiones de la Ponencia de Análisis de las Amenazas en el
Ciberespacio, en la Era de la Inteligencia Artificial y de la Computación
Cuántica, así como formular recomendaciones de mejora en el ámbito de la
seguridad nacional, la protección de las entidades críticas, el funcionamiento
de las instituciones públicas y la salvaguarda de la ciudadanía a partir de una
nueva visión socializada y amplia de ciberseguridad”, exponiendo que “... el
informe no se limita a describir el estado de la cuestión, sino que se
construye deliberadamente a partir del análisis comparado de las opiniones,
diagnósticos, advertencias y propuestas formuladas por los distintos expertos
comparecientes, estructurándolos por ejes temáticos y orientándolos a la mejora
de las políticas públicas en materia de ciberseguridad, desde un enfoque
práctico, institucional y alineado con las necesidades reales del Estado y de
la ciudadanía”.
Aun cuando no se
refiere al mundo laboral, sí hay algunos apartados del informe que pueden ser de especial interés en
relación con el mismo, como es por ejemplo el dedicado a “Dimensión social y de
derechos: ciudadanía, víctimas y garantías en el entorno digital”, en el que se
expone que “Las comparecencias de la
Ponencia pusieron de relieve que la ciberseguridad no puede abordarse
únicamente desde una perspectiva técnica, operativa o estratégica, sino que
presenta una dimensión social y de derechos fundamentales de creciente
relevancia. Los expertos coincidieron en que el impacto del cibercrimen, la
automatización tecnológica y el uso intensivo de datos afecta directamente a la
ciudadanía, especialmente a colectivos vulnerables, y plantea desafíos
sustantivos en términos de protección de las víctimas, garantías democráticas y
confianza en las instituciones”. Para la Ponencia, las citadas comparecencias “...
evidenciaron que la dimensión social y de derechos constituye un eje
transversal para la comprensión íntegra de la ciberseguridad contemporánea. La
protección efectiva de las víctimas, la atención a las estafas emocionales, la
salvaguarda de los menores y la garantía de transparencia y control democrático
sobre las tecnologías emergentes son elementos indispensables para una
estrategia de ciberseguridad que aspire no solo a proteger sistemas, sino
también a preservar los derechos, la confianza institucional y la cohesión
social en el entorno digital”.
El documento recoge
en el apartado de conclusiones las que se propusieron por quienes
comparecieron, y refiriéndose a cuestiones de especial interés social hay dos
que me parecen que pueden afectar directamente a la vida laboral:
“... En quinto
lugar, en cuanto a la gobernanza de la tecnología y los derechos fundamentales,
miembros de la sociedad civil recomiendan incorporar la participación ciudadana
en el diseño de políticas públicas relacionadas con la inteligencia artificial
y la ciberseguridad. Se propone de manera expresa la creación de espacios de
participación y órganos consultivos con presencia de organizaciones sociales,
así como la realización de evaluaciones de impacto en derechos humanos antes
del despliegue de tecnologías sensibles. Estas recomendaciones se formulan con
el objetivo de garantizar la transparencia, la rendición de cuentas y la
protección de colectivos vulnerables.
En sexto y último
lugar, se recomienda incrementar la transparencia en el uso de sistemas
algorítmicos por parte de las Administraciones Públicas, proponiéndose la
creación de registros públicos de algoritmos y mecanismos de supervisión ética
independientes. Estas propuestas se presentan como medidas necesarias para
asegurar que la ciberseguridad y el uso de tecnologías avanzadas no erosionen
derechos fundamentales ni principios democráticos”.
6. Dejo el ámbito
territorial español y me voy al de la Unión Europea para referirme al reciente
Dictamen exploratorio, elaborado a petición de la
presidencia chipriota, aprobado por el Comité Económico y Social Europeo en su
sesión plenaria celebrada el 18 de marzo, que lleva por título “Mejorar la
calidad del empleo y las condiciones de trabajo mediante la introducción y
promoción de herramientas conexas (incluida la IA) y el refuerzo del diálogo
social y la negociación colectiva”, con 157 votos a favor, 77 en contra y 10
abstenciones.
Un Dictamen, que
continúa en la línea marcada por otros anteriores y a los que se refiere en las
observaciones generales (me permito remitir a la entrada “Unas notas a
propósito de los Proyectos de Dictamen del Comité Económico y Social Europeo
sobre la inteligencia artificial, y en especial sobre su impacto en las
relaciones de trabajo” ).
Sus conclusiones y
recomendaciones me parecen de indudable importancia, y por ello las reproduzco
a continuación, animando a todas las personas interesadas a la lectura íntegra
del Dictamen:
“1.1 El CESE subraya que la inteligencia
artificial (IA) y la gestión algorítmica pueden mejorar la calidad del empleo y
las condiciones de trabajo si su adopción respeta el principio de control
humano y, al mismo tiempo, sirve para impulsar un crecimiento sostenible desde
el punto de vista económico, medioambiental y social al aumentar la
productividad y la competitividad de Europa.
1.2 El Comité reconoce el potencial de la
IA como palanca estratégica para reforzar la seguridad y la salud en el
trabajo, en particular mediante la prevención activa de riesgos, la detección
temprana de peligros y la automatización de las tareas más peligrosas, arduas o
repetitivas, siempre que se eviten los riesgos de discriminación o uso
indebido.
1.3 El CESE destaca que el uso de la IA
puede mejorar la organización del trabajo y el equilibrio entre la vida
profesional y la vida privada, habida cuenta de que unas capacidades
organizativas adecuadas, en especial en las pymes, son fundamentales para su adopción
efectiva.
1.4 El Comité reconoce la contribución de
la IA y las herramientas de información sobre el mercado laboral a la hora de
anticipar las necesidades de capacidades y apoyar los itinerarios de formación,
reciclaje profesional y desarrollo profesional, dado que ayudan a reducir la
inadecuación de las capacidades y a aumentar la empleabilidad de los
trabajadores.
1.5 El CESE llama la atención sobre los
riesgos asociados a la introducción de la IA y la gestión algorítmica, en
particular en lo que respecta a la intensificación del trabajo, el aumento de
los riesgos psicosociales, la reducción de la autonomía decisoria y el estrés
tecnológico. Con arreglo al marco sobre salud y seguridad en el trabajo, en el
que se exige a todos los empleadores evaluar los riesgos para la salud y la
seguridad de los trabajadores, tales riesgos se hallan comprendidos en el
ámbito de dicha evaluación y deben abordarse con medidas adecuadas, con la
participación de los interlocutores sociales y la negociación colectiva en los
niveles oportunos.
1.6 Con el fin de evitar la opacidad de
los sistemas algorítmicos y el riesgo de prácticas discriminatorias, el CESE
subraya la importancia de asegurar que el uso de la IA y de la gestión
algorítmica sea transparente, explicable y justo, ya que ello contribuye a
aumentar la confianza en estas tecnologías, su legitimidad y su aceptación
social, en especial entre los grupos vulnerables.
1.7 Al objeto de evitar asimetrías de
poder relacionadas con el uso intensivo de datos y las prácticas de vigilancia
y control en el lugar de trabajo, el CESE destaca la importancia primordial de
fomentar un uso de los datos transparente, proporcionado y con salvaguardias
adecuadas, en particular mediante la fijación de límites claros al uso de
aplicaciones intrusivas.
1.8 El CESE respalda la Resolución del
Parlamento Europeo en la que se pide a
la Comisión que lleve a cabo una evaluación exhaustiva de la legislación
vigente relativa al despliegue de herramientas de IA y gestión algorítmica en
el lugar de trabajo y, sobre la base de sus resultados, presente una propuesta
de la UE centrada específicamente en la gestión algorítmica en el trabajo para
abordar en todas sus vertientes sus repercusiones específicas en las
condiciones de trabajo, que evite la creación de instrumentos jurídicos que se
solapen y mejore la armonización del mercado interior.
1.9 El Comité coincide en que las
disposiciones aplicables en la actualidad, incluidas las derivadas del
Reglamento General de Protección de Datos (RGPD) y el Reglamento de Inteligencia Artificial ,
deben ejecutarse y cumplirse plenamente al introducir herramientas de IA y
gestión algorítmica en el lugar de trabajo y, al mismo tiempo, reconoce que
esto brinda la oportunidad de ampliar a todos los trabajadores los principios
sobre gestión algorítmica de la Directiva relativa al trabajo en
plataformas a fin de reforzar su
protección.
1.10 El CESE destaca el papel central del
diálogo social y la negociación colectiva en todos los niveles, así como la
importancia de una cooperación estructurada entre la Oficina Europea de
Inteligencia Artificial (Oficina de IA), la Comisión Europea y los interlocutores
sociales, para garantizar que la implantación de la IA contribuya a una
transición digital justa, inclusiva y competitiva, teniendo en cuenta
sistemáticamente las dimensiones generacional y de género, la vulnerabilidad y
las necesidades de las pymes”.
7. Por fin, habrá
que estar muy atentos a los debates en la próxima Conferencia Internacional del
Trabajo, que se celebrará en la sede la OIT en Ginebra los días 1 a 12 de junio
sobre los proyectos de Convenio y Recomendación sobre el trabajo decente en la economía de plataformas, por la real importancia
que puede tener su aprobación, en especial el Convenio.
Conviene señalar
que el apartado X del Convenio versa sobre el impacto del uso de sistemas
automatizados, y dispone lo siguiente:
“Artículo 12
Todo Miembro
exigirá a las plataformas digitales de trabajo que informen a los trabajadores
de plataformas digitales, antes de su empleo o contratación, y a sus
representantes o a las organizaciones representativas de trabajadores y, cuando
existan, a las organizaciones que representen a los trabajadores de plataformas
digitales, sobre:
a) el uso de
sistemas automatizados, basados en algoritmos o en métodos similares, con fines
de seguimiento o evaluación del trabajo o de generación de decisiones relativas
al trabajo;
b) la medida en
que el uso de tales sistemas automatizados tiene un impacto en las condiciones
de trabajo de los trabajadores de plataformas digitales o en el acceso al
trabajo.
Artículo 13
Todo Miembro
exigirá a las plataformas digitales de trabajo que el uso que hagan de los
sistemas automatizados mencionados en el artículo 12 no vulnere los principios
y derechos fundamentales en el trabajo.
Artículo 14
Todo Miembro
exigirá a las plataformas digitales de trabajo que velen por que, cuando las
decisiones sean generadas por un sistema automatizado, los trabajadores de
plataformas digitales y sus representantes o las organizaciones representativas
de trabajadores y, cuando existan, las organizaciones que representen a los
trabajadores de plataformas digitales tengan acceso previa solicitud, sin
demora injustificada, a:
a) una explicación
por escrito de las decisiones que afecten a sus condiciones de trabajo o a su
acceso al trabajo;
b) una revisión
por humanos de las decisiones que tengan como consecuencia el no abono de todo
monto adeudado a los trabajadores de plataformas digitales, o la suspensión o
desactivación de sus cuentas, o la terminación de su empleo o contratación con
una plataforma digital de trabajo”.
Y en el proyecto
de Recomendación, la misma temática es abordada en el apartado VII en estos
términos complementarios del Convenio:
“13. Los Miembros
deberían alentar a las plataformas digitales de trabajo a que, cuando faciliten
la información sobre el uso de sistemas automatizados, se refieran a los
siguientes aspectos:
a) los principales
parámetros que repercuten en las condiciones de trabajo de los trabajadores de
plataformas digitales o en su acceso al trabajo, y la importancia relativa de
estos parámetros;
b) el grado de
intervención humana en el proceso de toma de decisiones;
c) cualesquiera
cambios ulteriores relativos a los apartados a) o b).
14. Los Miembros
deberían alentar a las plataformas digitales de trabajo a que realicen un
seguimiento y evaluaciones regulares del impacto del uso de los sistemas
automatizados, y apliquen las medidas correctivas necesarias, en colaboración
con los representantes de los trabajadores de plataformas digitales o las
organizaciones representativas de trabajadores y, cuando existan, las
organizaciones que representen a los trabajadores de plataformas digitales.
15. Los Miembros
deberían, al aplicar el artículo 13 del Convenio, exigir a las plataformas
digitales de trabajo que adopten medidas para velar, en particular, por que el
uso que hagan de los sistemas automatizados:
a) no dé lugar a
ninguna discriminación contra los trabajadores de plataformas digitales,
incluido en lo que respecta a la remuneración o el pago, o al acceso al
trabajo;
b) no tenga
efectos nocivos para la seguridad y salud de los trabajadores de plataformas
digitales, incluidos los derivados del incremento de su exposición a peligros
psicosociales o al incremento del riesgo de accidentes del trabajo,
enfermedades profesionales y cualquier otro daño para su salud”.
8. Refiriéndonos al
uso de la IA en las políticas de empleo cabe referenciar el artículo de Zeltia
Lado y Santiago Boquete, Directora general de Formación y Cualificación para el
Empleo, y Subdirector del Servicio de Empleo de Galicia, respectivamente, “La
IA aplicada a los servicios públicos de empleo. Hacia un sistema de
intermediación, orientación y formación basado en competencias profesionales” , cuyo resumen es el siguiente:
“El artículo
analiza cómo la Ley 3/2023 sitúa la intermediación laboral en el centro de las
políticas activas de empleo en España, redefiniendo su alcance y enfatizando el
uso de tecnologías avanzadas como la inteligencia artificial. Esta ley amplía
el concepto de intermediación para incluir actividades como la prospección de
ofertas y el perfilado competencial de los demandantes, implicando a los
Servicios Públicos de Empleo en una gestión más eficiente y personalizada. En
este contexto, se destaca EMi (Empleo Inteligente), una solución tecnológica
implementada por la Xunta de Galicia que utiliza IA y Big Data para mejorar la
intermediación basada en competencias. EMi facilita el emparejamiento entre
oferta y demanda laboral, optimiza la inserción de colectivos prioritarios y
permite una comprensión más profunda del mercado laboral, adaptándose a las
nuevas realidades y desafíos demográficos y tecnológicos”.
9. En el ámbito
doctrinal, cabe hacer referencia al reciente artículo de la profesora Arántzazu Vicente, “Inteligencia artificial para la
intermediación laboral en los servicios públicos de empleo” (Revista general de
Derecho del Trabajo y de la Seguridad Social , núm. 73 marzo 2026) , cuyo
resumen es el siguiente:
“El análisis del
proceso de intermediación laboral que lleva a cabo el Servicio valenciano de
Empleo (LABORA) ha revelado una práctica administrativa anclada en
procedimientos obsoletos y reactivos. El emparejamiento automático es residual
y no prioriza a los colectivos vulnerables en las ofertas de empleo ordinarias.
El trabajo propone transitar hacia una "intermediación proactiva"
mediante herramientas de Inteligencia Artificial que realicen búsquedas activas
para los demandantes de empleo. Se propone, entre otras medidas: la inclusión
estratégica de perfiles prioritarios en todos los procesos de intermediación
laboral y el marketing directo de incentivos económicos para las empresas.
Asimismo, se sugiere acabar con la exclusión de la contratación de colectivos
priorizados en el ámbito del empleo doméstico alineando las políticas activas
de empleo con el cambio de modelo de cuidados de larga duración que se
contempla en el Plan de Recuperación, Transformación y Resiliencia de España”
10. Por último, prestar
atención a las personas muy bien conocedoras de aquello que significa la IA es
absolutamente necesario. Por ello, me ha parecido muy interesante la lectura de
la entrevista que la redactora de la revista Alternativas Económicas (núm. 144,
marzo 2026), Ariadna Trillas, ha realizado al Director del Instituto de
Investigación en Inteligencia Artificial del CSIC, Carles Sierra , a la que ha dado el muy significativo título de “Europa debe defender una IA
responsable y ética”.
Al preguntarle sobre
el impacto en la vida laboral, reconoce que “es muy difícil saber que va pasar.
Es seguro que hay trabajos que se automatizarán. Siempre se han automatizado
trabajos, pero la cuestión es la escala masiva a la que pueda suceder. La forma
en la que trabajamos cambiará”. Y más adelante enfatiza que “Para mí, es muy
relevante como la IA pone aún más al descubierto el sistema capitalista. Con la
IA se evidencia aún más en manos de quien están los medios de producción.
Cuatro empresas están extrayendo dinero de todo el mundo mediante sistemas desarrollados
con información y datos de todo el mundo y con los que intentan dominarnos...”.
Continuará.
Mientras tanto, buena lectura.
No hay comentarios:
Publicar un comentario