1. El Pleno del Consejo Económico y Social aprobó en su sesión ordinaria del día 25 de marzo el Dictamen sobre el Anteproyecto de Ley “para el buen uso y la gobernanza de la inteligencia artificial”, que había sido solicitado el día 3 de marzo por el Ministerio para la Transformación Digital y de la Función Pública.
La historia de
dicho Anteproyecto se inició hace un año, con su aprobación por el Consejo de
Ministros celebrado el 11 de marzo, del que daba cuenta una amplia nota de prensa del citado Ministerio, titulada “El
Gobierno da luz verde al anteproyecto de ley para un uso ético, inclusivo y
beneficioso de la Inteligencia Artificial”, sintetizado en estos términos:
“El Gobierno ha
dado hoy luz verde al anteproyecto de ley de gobernanza de la Inteligencia
Artificial (IA), que busca garantizar un uso de la Inteligencia Artificial que
sea ético, inclusivo y beneficioso para las personas. Este instrumento
normativo adaptará la legislación española al reglamento europeo de IA, ya en
vigor, bajo un enfoque regulador que impulsa la innovación.
“La IA es una
herramienta muy poderosa, que puede servir para mejorar nuestras vidas o atacar
a la democracia; puede tener buenos usos o malos usos. La IA puede ser
utilizada para investigar el cáncer o el Alzheimer, para prevenir catástrofes
naturales, para descubrir nuevos medicamentos; o puede ser usada para difundir
bulos y mentiras, esparcir odio y atacar a nuestra democracia. Por eso es
oportuno su buen uso y gobernanza”, ha destacado el ministro para la
Transformación Digital y de la Función Pública, Óscar López, en la rueda de
prensa posterior al Consejo de Ministros.
El anteproyecto de
ley, que se tramitará por la vía de urgencia, seguirá ahora los trámites
preceptivos antes de volver al Consejo de Ministros para su aprobación
definitiva como proyecto de ley y envío a las Cortes para su aprobación.
Con el objetivo de
que la Unión Europea disponga de un marco legal común para el desarrollo,
comercialización y uso de sistemas de IA que eviten los riesgos para las
personas, el reglamento prohíbe determinados usos maliciosos de la IA,
introduce obligaciones más rigurosas para sistemas considerados de alto riesgo
y establece unos requisitos mínimos de transparencia para el resto.
Incorpora, además,
un nuevo derecho digital de retirada provisional del mercado español de
sistemas de IA por la autoridad de vigilancia competente cuando hayan provocado
un incidente grave, como el fallecimiento de una persona”.
Al referirse a los
sistemas de alto riesgo, encontramos en dicho texto una referencia concreta al
ámbito laboral, poniendo como ejemplos de infracciones graves “el no introducir
supervisión humana en un sistema de IA que incorpore la biometría en el trabajo
para controlar la presencialidad de los trabajadores o no disponer de un
sistema de gestión de calidad en robots con IA que desarrollan las tareas de
inspección y mantenimiento en sectores industriales, entre otros. Las sanciones
oscilarán en estos casos entre 500.000 euros y 7,5 millones de euros o entre el
1% y el 2% del volumen de negocio mundial”.
La lectura del
Anteproyecto , al que se acompañaba su Memoria de Análisis de Impacto Normativo (MAIN), y la
del Dictamen del CES, junto con otros documentos que he tenido oportunidad de
leer, en su totalidad o en sus síntesis, en los últimos días, me ha animado a
redactar una nueva entrada sobre los debates existentes que versan sobre el
impacto de la IA, y mucho más concretamente en la vida laboral, es decir en la
vida cotidiana de millones de personas.
Continuo, pues,
con mis aportaciones y reflexiones plasmadas en artículos anteriores en este
blog, siendo la dos más recientes el texto de mi intervención en el acto de
clausura de la Jornada organizada por Esade Forum el 27 de febrero , y su puesta al día en la entrada “Nuevas
aportaciones legales y doctrinales sobre el impacto de la Inteligencia
Artificial en las relaciones de trabajo y en la vida política, económica y
social”
2. Ánimo, en el
que también tiene mucho que ver la celebración de dos próximos encuentros sindicales
y académicos
El primero, la
celebración de las novenas, y muy consolidadas, jornadas jurídicas de Derecho
Laboral y Sindical de CCOO de Cataluña, los días 28 y 29 de mayo, dedicadas al “Impacto
de la Inteligencia Artificial en las Relaciones Laborales y en la Jurisdicción
Social”, con ponencias a cargo de la profesora Henar Álvarez y de los profesores
Xavier Solà, Miguel Ángel Purcalla y Miguel Arenas, en las que participaré en
el acto de presentación. Serán abordadas la relevancia d ellos derechos de
información y consulta, la prevención de los riesgos laborales desde una
perspectiva de género, la aplicación de la IA en la resolución de los
conflictos laborales, y su impacto en la Seguridad Social. sistema
El segundo, la celebración
en la Universidad de Valencia del II Congreso Internacional sobre la IA en elmundo del trabajo, dedicado a “La Directiva de Trabajo en Plataformas, el
Reglamento General de Protección de Datos, y el Reglamento de Inteligencia
Artificial”, dirigido por los profesores Adrián Todolí Signes e Ignasi Beltrán
de Heredia
, en cuya presentación se anuncia que los temas a tratar, todos ellos de
indudable importancia, serán los siguientes: “i) Los efectos de la IA en el
mercado de trabajo, ii) Trasparencia algorítmica, derechos de información y
protección de datos, iii) Discriminación algorítmica en el contrato de trabajo iv)
El control tecnológico de la actividad laboral y las evaluaciones de
productividad automatizadas v) Controles biométricos y de salud, vi) Prevención
de riesgos laborales y usos de la Inteligencia Artificial, vii) Normativa
europea aplicable al contrato de trabajo en materia de Inteligencia Artificial
y algoritmos, viii) Los neuroderechos en el ámbito laboral, ix) La evaluación
de impacto en la directiva de plataformas, el RGPD y el RIA”.
Sus organizadores
han puesto en marcha ya la calificada de “segunda iniciativa interblogs de
Derecho del Trabajo”, tras el éxito alcanzado en la primera con ocasión del
primer congreso internacional sobre la IA en el mundo del trabajo, que
nuevamente contará con un amplio elenco de laboralistas y en el que participaré
en la entrada de clausura (además de sus directores, la profesora Ana Belén
Muños y los profesores Miguel Rodríguez-Piñero, Jesus R. Mercader, José María
Goerlich, Daniel Pérez y Antonio Fernández).
A buen seguro que en
las ponencias e intervenciones, tanto del Congreso como en los artículos de
blog, se hará mención y se analizará el informe del grupo de personas expertas
sobre la transposición de la Directiva 2024/2831 del Parlamento Europeo y del
Consejo, de 23 de octubre de 2024, relativa a la mejora de las condiciones
laborales en el trabajo en plataformas , y muy especial de su capítulo III, dedicado a la gestión algorítmica. En la
presentación del informe se explica que “...
“Al igual que con
otras directivas en el ámbito del Derecho laboral, la Comisión creó un grupo
informal de expertos para asesorar y apoyar a la Dirección General de Empleo, Asuntos
Sociales e Inclusión en el seguimiento de la transposición correcta y oportuna
de la Directiva por parte de los Estados miembros. El grupo debatió todas las
disposiciones de la Directiva. Además, brindó a los expertos nacionales, los
interlocutores sociales y los servicios de la Comisión la oportunidad de
intercambiar opiniones sobre los avances en la transposición de la Directiva a nivel
nacional. El grupo de expertos estaba compuesto por expertos nacionales en
representación de los gobiernos de los veintisiete Estados miembros, los
Estados del EEE/AELC y los interlocutores sociales europeos. El grupo estuvo
presidido por un representante de la Dirección General de Empleo, Asuntos
Sociales e Inclusión. La Dirección General de Empleo, Asuntos Sociales e
Inclusión prestó apoyo administrativo al grupo. Se celebraron un total de ocho
reuniones entre diciembre de 2024 y diciembre de 2025, durante las cuales se
debatieron ampliamente las principales cuestiones surgidas en relación con la
aplicación de la Directiva. El presente informe es el resultado de dichos
debates. Las referencias a otras normas legislativas de la UE se refieren a las
versiones vigentes durante los debates... Si bien su objetivo es facilitar el
intercambio de opiniones y promover una mejor comprensión común de las
disposiciones de la Directiva, los servicios de la Comisión no han pretendido interferir
en modo alguno en el proceso de transposición a nivel nacional, ni interferir
en el derecho de interpretación del Tribunal de Justicia de la Unión Europea ni
de otros tribunales competentes. Lo mismo se aplica a los expertos del Grupo de
Expertos que, en sus respectivos países, son responsables de elaborar proyectos
de ley y/o supervisar los debates entre los interlocutores sociales en el marco
de la transposición basada en convenios colectivos. El informe no es en absoluto
vinculante y no debe considerarse que represente la posición oficial de ningún gobierno
participante en el Grupo de Expertos, ni la de la Comisión o los interlocutores
sociales europeos. El informe no exime en modo alguno a los Estados miembros de
la responsabilidad de garantizar la correcta transposición y aplicación de la
Directiva, y tampoco exime a la Comisión de su obligación de supervisar dicha
labor”.
Vamos allá.
3. Lógicamente, el
primer documento que deseo destacar es el que ha dado pie a esta entrada, es
decir el Anteproyecto de Ley para el buen uso y gobernanza de la inteligencia
artificial, que concreta en nuestro ordenamiento jurídico interno el Reglamento(UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024 estableciendo “un régimen sancionador y un esquema de sanciones que se plantean
como efectivas, proporcionadas y disuasoria. Se tienen en cuenta condiciones
específicas de las pymes y empresas emergentes, procurando con ello asegurar el
equilibrio entre el cumplimiento de las obligaciones establecidas por el
Reglamento y la protección de la innovación científica y técnica”, y cuya tesis
central se encuentra en el tercer párrafo de su exposición de motivo,
considerando necesario “definir un marco normativo de uso de esta tecnología
que promueva la adopción de una IA fiable y centrada en el ser humano”.
Su capítulo IV
está dedicado a infracciones y sanciones, siguiendo el citado Reglamento, y encontramos
en el art. 20, tipificada como infracción grave por parte de los responsables
del despliegue de sistema de IA, “f) El incumplimiento del artículo 26.7 del
Reglamento (UE) 2024/1689, de 13 de junio, relativo a la obligación, cuando se
despliegue un sistema de IA de alto riesgo en un lugar de trabajo, de informar
a los representantes de las personas trabajadoras y a las personas trabajadoras
afectadas de que estarán expuestos a la utilización de éste”. También es
necesario hacer referencia al art. 27 en el que se estable la graduación de las
sanciones, en el que, tras disponer con carácter general que “Las
Administraciones públicas deberán guardar la debida adecuación entre la sanción
y el hecho constitutivo de la infracción, considerando especialmente su
repercusión y su trascendencia por lo que respecta a la salud y seguridad de
las personas y a sus derechos fundamentales”, dispone que “En particular,
deberá evaluarse para cada caso concreto: ... l) La existencia de sucesión de
empresas o la aplicación de la doctrina del levantamiento del velo en
situaciones abusivas o fraudulentas”.
Recordemos en este
punto que el art. 26 del Reglamento, dedicado a “Obligaciones de los
responsables del despliegue de sistemas de IA de alto riesgo”, dispone en su
apartado 7 que “Antes de poner en servicio o utilizar un sistema de IA de alto
riesgo en el lugar de trabajo, los responsables del despliegue que sean
empleadores informarán a los representantes de los trabajadores y a los
trabajadores afectados de que estarán expuestos a la utilización del sistema de
IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo
a las normas y procedimientos establecidos en el Derecho de la Unión y nacional
y conforme a las prácticas en materia de información a los trabajadores y sus
representantes·.
4. Pues bien, es
justamente sobre este punto sobre el que se formula una observación concreta en
el Dictamen del CES, habiendo pasado con anterioridad por el examen del contenido
del Anteproyecto remitido y formulado “una valoración positiva la iniciativa de
regular, en una norma con rango de ley, el sistema de autoridades para la
gobernanza del uso de la IA y el régimen de infracciones y sanciones, además de
reglas para el buen uso en la AGE, que permitirá cumplir, con la adecuada
adaptación para España, las previsiones de la normativa comunitaria y
específicamente del RIA”.
No obstante, el
CES critica la ausencia de diálogo social en su elaboración, y expone que “habría
sido aconsejable remitirlo a las organizaciones sindicales y empresariales más
representativas a fin de recabar directamente su opinión, al amparo de la Ley
50/1997, de 27 de noviembre, del Gobierno (artículo 26.6), más allá de que,
como recoge la MAIN que lo acompaña, se llevase a cabo el trámite de audiencia
e información pública general”. Para el
CES, el texto de la futura norma debería recoger “más literalmente” lo
dispuesto en el art 26.7 del RIA, es decir facilitar la información a los
representantes del personal “antes de poner en servicio o utilizar el sistema”,
ya que de tal manera se garantizaría “la eficacia de este derecho de
información haciéndolo efectivo con carácter previo a la utilización de tales
sistemas
5. Sigo con
documentos internos, y me refiero brevemente a continuación al Informe aprobado
por la Ponencia de “análisis de las amenazas en el ciberespacio, en la era de
la Inteligencia Artificial y la Computación Cuántica, para la elaboración de un
informe de riesgos y recomendaciones de mejora”, constituida en el seno de la
Comisión Mixta de Seguridad Nacional, publicado en el Boletín de las Cortes Generales
el 27 de marzo , al que se adjuntan algunas propuestas de modificación suscritas por diversos
grupos parlamentarios.
El objeto del informe
es, tal como se explica en su introducción, “presentar y reflejar de manera
sistemática las conclusiones de la Ponencia de Análisis de las Amenazas en el
Ciberespacio, en la Era de la Inteligencia Artificial y de la Computación
Cuántica, así como formular recomendaciones de mejora en el ámbito de la
seguridad nacional, la protección de las entidades críticas, el funcionamiento
de las instituciones públicas y la salvaguarda de la ciudadanía a partir de una
nueva visión socializada y amplia de ciberseguridad”, exponiendo que “... el
informe no se limita a describir el estado de la cuestión, sino que se
construye deliberadamente a partir del análisis comparado de las opiniones,
diagnósticos, advertencias y propuestas formuladas por los distintos expertos
comparecientes, estructurándolos por ejes temáticos y orientándolos a la mejora
de las políticas públicas en materia de ciberseguridad, desde un enfoque
práctico, institucional y alineado con las necesidades reales del Estado y de
la ciudadanía”.
Aun cuando no se
refiere al mundo laboral, sí hay algunos apartados del informe que pueden ser de especial interés en
relación con el mismo, como es por ejemplo el dedicado a “Dimensión social y de
derechos: ciudadanía, víctimas y garantías en el entorno digital”, en el que se
expone que “Las comparecencias de la
Ponencia pusieron de relieve que la ciberseguridad no puede abordarse
únicamente desde una perspectiva técnica, operativa o estratégica, sino que
presenta una dimensión social y de derechos fundamentales de creciente
relevancia. Los expertos coincidieron en que el impacto del cibercrimen, la
automatización tecnológica y el uso intensivo de datos afecta directamente a la
ciudadanía, especialmente a colectivos vulnerables, y plantea desafíos
sustantivos en términos de protección de las víctimas, garantías democráticas y
confianza en las instituciones”. Para la Ponencia, las citadas comparecencias “...
evidenciaron que la dimensión social y de derechos constituye un eje
transversal para la comprensión íntegra de la ciberseguridad contemporánea. La
protección efectiva de las víctimas, la atención a las estafas emocionales, la
salvaguarda de los menores y la garantía de transparencia y control democrático
sobre las tecnologías emergentes son elementos indispensables para una
estrategia de ciberseguridad que aspire no solo a proteger sistemas, sino
también a preservar los derechos, la confianza institucional y la cohesión
social en el entorno digital”.
El documento recoge
en el apartado de conclusiones las que se propusieron por quienes
comparecieron, y refiriéndose a cuestiones de especial interés social hay dos
que me parecen que pueden afectar directamente a la vida laboral:
“... En quinto
lugar, en cuanto a la gobernanza de la tecnología y los derechos fundamentales,
miembros de la sociedad civil recomiendan incorporar la participación ciudadana
en el diseño de políticas públicas relacionadas con la inteligencia artificial
y la ciberseguridad. Se propone de manera expresa la creación de espacios de
participación y órganos consultivos con presencia de organizaciones sociales,
así como la realización de evaluaciones de impacto en derechos humanos antes
del despliegue de tecnologías sensibles. Estas recomendaciones se formulan con
el objetivo de garantizar la transparencia, la rendición de cuentas y la
protección de colectivos vulnerables.
En sexto y último
lugar, se recomienda incrementar la transparencia en el uso de sistemas
algorítmicos por parte de las Administraciones Públicas, proponiéndose la
creación de registros públicos de algoritmos y mecanismos de supervisión ética
independientes. Estas propuestas se presentan como medidas necesarias para
asegurar que la ciberseguridad y el uso de tecnologías avanzadas no erosionen
derechos fundamentales ni principios democráticos”.
6. Dejo el ámbito
territorial español y me voy al de la Unión Europea para referirme al reciente
Dictamen exploratorio, elaborado a petición de la
presidencia chipriota, aprobado por el Comité Económico y Social Europeo en su
sesión plenaria celebrada el 18 de marzo, que lleva por título “Mejorar la
calidad del empleo y las condiciones de trabajo mediante la introducción y
promoción de herramientas conexas (incluida la IA) y el refuerzo del diálogo
social y la negociación colectiva”, con 157 votos a favor, 77 en contra y 10
abstenciones.
Un Dictamen, que
continúa en la línea marcada por otros anteriores y a los que se refiere en las
observaciones generales (me permito remitir a la entrada “Unas notas a
propósito de los Proyectos de Dictamen del Comité Económico y Social Europeo
sobre la inteligencia artificial, y en especial sobre su impacto en las
relaciones de trabajo” ).
Sus conclusiones y
recomendaciones me parecen de indudable importancia, y por ello las reproduzco
a continuación, animando a todas las personas interesadas a la lectura íntegra
del Dictamen:
“1.1 El CESE subraya que la inteligencia
artificial (IA) y la gestión algorítmica pueden mejorar la calidad del empleo y
las condiciones de trabajo si su adopción respeta el principio de control
humano y, al mismo tiempo, sirve para impulsar un crecimiento sostenible desde
el punto de vista económico, medioambiental y social al aumentar la
productividad y la competitividad de Europa.
1.2 El Comité reconoce el potencial de la
IA como palanca estratégica para reforzar la seguridad y la salud en el
trabajo, en particular mediante la prevención activa de riesgos, la detección
temprana de peligros y la automatización de las tareas más peligrosas, arduas o
repetitivas, siempre que se eviten los riesgos de discriminación o uso
indebido.
1.3 El CESE destaca que el uso de la IA
puede mejorar la organización del trabajo y el equilibrio entre la vida
profesional y la vida privada, habida cuenta de que unas capacidades
organizativas adecuadas, en especial en las pymes, son fundamentales para su adopción
efectiva.
1.4 El Comité reconoce la contribución de
la IA y las herramientas de información sobre el mercado laboral a la hora de
anticipar las necesidades de capacidades y apoyar los itinerarios de formación,
reciclaje profesional y desarrollo profesional, dado que ayudan a reducir la
inadecuación de las capacidades y a aumentar la empleabilidad de los
trabajadores.
1.5 El CESE llama la atención sobre los
riesgos asociados a la introducción de la IA y la gestión algorítmica, en
particular en lo que respecta a la intensificación del trabajo, el aumento de
los riesgos psicosociales, la reducción de la autonomía decisoria y el estrés
tecnológico. Con arreglo al marco sobre salud y seguridad en el trabajo, en el
que se exige a todos los empleadores evaluar los riesgos para la salud y la
seguridad de los trabajadores, tales riesgos se hallan comprendidos en el
ámbito de dicha evaluación y deben abordarse con medidas adecuadas, con la
participación de los interlocutores sociales y la negociación colectiva en los
niveles oportunos.
1.6 Con el fin de evitar la opacidad de
los sistemas algorítmicos y el riesgo de prácticas discriminatorias, el CESE
subraya la importancia de asegurar que el uso de la IA y de la gestión
algorítmica sea transparente, explicable y justo, ya que ello contribuye a
aumentar la confianza en estas tecnologías, su legitimidad y su aceptación
social, en especial entre los grupos vulnerables.
1.7 Al objeto de evitar asimetrías de
poder relacionadas con el uso intensivo de datos y las prácticas de vigilancia
y control en el lugar de trabajo, el CESE destaca la importancia primordial de
fomentar un uso de los datos transparente, proporcionado y con salvaguardias
adecuadas, en particular mediante la fijación de límites claros al uso de
aplicaciones intrusivas.
1.8 El CESE respalda la Resolución del
Parlamento Europeo en la que se pide a
la Comisión que lleve a cabo una evaluación exhaustiva de la legislación
vigente relativa al despliegue de herramientas de IA y gestión algorítmica en
el lugar de trabajo y, sobre la base de sus resultados, presente una propuesta
de la UE centrada específicamente en la gestión algorítmica en el trabajo para
abordar en todas sus vertientes sus repercusiones específicas en las
condiciones de trabajo, que evite la creación de instrumentos jurídicos que se
solapen y mejore la armonización del mercado interior.
1.9 El Comité coincide en que las
disposiciones aplicables en la actualidad, incluidas las derivadas del
Reglamento General de Protección de Datos (RGPD) y el Reglamento de Inteligencia Artificial ,
deben ejecutarse y cumplirse plenamente al introducir herramientas de IA y
gestión algorítmica en el lugar de trabajo y, al mismo tiempo, reconoce que
esto brinda la oportunidad de ampliar a todos los trabajadores los principios
sobre gestión algorítmica de la Directiva relativa al trabajo en
plataformas a fin de reforzar su
protección.
1.10 El CESE destaca el papel central del
diálogo social y la negociación colectiva en todos los niveles, así como la
importancia de una cooperación estructurada entre la Oficina Europea de
Inteligencia Artificial (Oficina de IA), la Comisión Europea y los interlocutores
sociales, para garantizar que la implantación de la IA contribuya a una
transición digital justa, inclusiva y competitiva, teniendo en cuenta
sistemáticamente las dimensiones generacional y de género, la vulnerabilidad y
las necesidades de las pymes”.
7. Muy recientemente se ha
publicado por la OIT el estudio “¿Disrupción sin beneficios? Cómo la brecha
digital y las diferencias en las tareas dividen el impacto global de GenAI”, elaborado
por Paweł Gmyrek, Mariana Viollaz, y Hernan Winkler (original inglés Disruption without dividend?- How the digital divide and task differences split GenAI’s global impact ILO working papers 166, march 2026),
del que reproduzco sus conclusiones:
“En este artículo,
investigamos el impacto potencial de la IA GenA en el mercado laboral global,
centrándonos en la distribución desigual de riesgos y oportunidades entre las
economías avanzadas y en desarrollo.
Exploramos tres
perspectivas específicas. Primero, aplicamos el Índice OIT-NASK de exposición
ocupacional a microdatos detallados de 135 países, que abarcan el 69 % de la
población mundial.
Segundo,
basándonos en nuestro trabajo en América Latina y el Caribe, examinamos el
impacto de la brecha digital, combinando la exposición ocupacional con datos
sobre el acceso a internet en países con diferentes niveles de ingresos, como
condición previa para beneficiarse de tecnologías como la IA GenA. Tercero,
utilizando las encuestas de competencias PIAAC y STEP en 46 países y cinco
rondas de recopilación de datos desde 2012, vinculamos la exposición a la IA
GenA con el contenido real de las tareas laborales, basándonos en constructos
de intensidad de tareas: uso de computadoras, tareas manuales rutinarias,
tareas analíticas no rutinarias y trabajo interpersonal no rutinario. Con base
en esta información, modelamos la relación entre la exposición laboral y el
contenido de las tareas en distintos países, ajustando las puntuaciones de
exposición según las diferencias en las tareas entre entornos de ingresos altos
y bajos.
Nuestro análisis
indica que, en el contexto global, diversas fuerzas asimétricas influirán en el
impacto de la IA de nueva generación en el empleo.
En todos los
países, la exposición se correlaciona positivamente con los niveles de
desarrollo: las economías de altos ingresos presentan mayores porcentajes de
empleo en zonas con alta exposición, especialmente en el ámbito de la
automatización, mientras que las diferencias en el potencial de mejora son
menores entre los distintos grupos de ingresos. Corregir la exposición según el
acceso real a internet amplía las diferencias basadas en los ingresos y revela
una importante dinámica de «falta de protección y grandes cuellos de botella»:
en los países de bajos ingresos, los trabajadores en riesgo de desplazamiento
ya cuentan con la suficiente conexión para experimentar los efectos negativos
de la rápida automatización, mientras que aquellos que podrían mejorar
productivamente su trabajo se enfrentan a importantes brechas de
infraestructura que retrasan los beneficios. Por ejemplo, entre los 441,8
millones de empleos globales en zonas de alta automatización en los países
incluidos en nuestro estudio, aproximadamente 66,9 millones carecen de acceso a
internet: una estimación concreta de las ganancias perdidas a corto plazo. Esto
contrasta notablemente con los países de altos ingresos (PAI), donde tanto los
trabajadores en riesgo de automatización como aquellos que se benefician de las
mejoras de productividad a través de la transformación laboral se encuentran en
entornos casi universalmente digitalizados.
A pesar del mayor
impacto potencial de la automatización en los PAI, las consecuencias de estos
riesgos variarán según la economía. En los países de bajos ingresos, el
subconjunto vulnerable a la automatización es pequeño pero estratégicamente
importante: suelen ser empleos de mayor calidad y mejor remunerados en el
sector servicios formales, donde el desplazamiento temprano podría tener
efectos distributivos desproporcionados. Estos países también tienen una
capacidad fiscal e institucional considerablemente menor para mitigar las
consecuencias negativas de la automatización o para brindar apoyo público
durante las transiciones.
En la mayoría de
los países, la exposición aumenta con el nivel educativo y los ingresos
familiares; dentro de las ocupaciones, suele concentrarse entre los
trabajadores jóvenes y las mujeres que desempeñan funciones de oficina. Si bien
la brecha digital mitiga parcialmente los riesgos inmediatos, a largo plazo
esta tendencia plantea un riesgo más profundo de "evitación del trabajo de
oficina". A medida que la IA generativa sea capaz de realizar muchas
tareas de oficina, los tipos de empleos que históricamente facilitaron la
entrada de las mujeres al mercado laboral y ofrecieron vías hacia un empleo de
calidad en las economías avanzadas podrían no llegar a consolidarse por
completo en los países en desarrollo actuales, o aparecer en formas
significativamente reducidas, con muchas tareas esenciales que, en última
instancia, serán realizadas por la IA generativa. Esto podría impedir que los
países de bajos ingresos experimenten el tipo de transformación que el trabajo
de oficina posibilitó en su momento en las naciones más ricas, especialmente en
lo que respecta a la igualdad de género. Las implicaciones van más allá del
género: dado que los empleos de oficina de nivel inicial han servido
tradicionalmente como trampolín para los jóvenes que ingresan al mercado
laboral, su ausencia podría obstaculizar aún más la integración juvenil en los
países en desarrollo, donde los jóvenes ya enfrentan importantes barreras para
el empleo.
Más allá de la
exposición teórica, demostramos que las ocupaciones difieren significativamente
según el contexto de ingresos.
Es probable que
una medida de exposición generalizada sobreestime el impacto de la IA de nueva
generación en las economías en desarrollo, ya que presupone un contenido de
tareas uniforme dentro de las categorías ISCO. Incluso dentro de las
ocupaciones con alta exposición, los trabajadores de países de bajos ingresos
realizan sustancialmente menos tareas analíticas no rutinarias y más tareas
rutinarias/manuales que sus homólogos en las economías de altos ingresos.
Un ajuste del
índice de exposición global según el contenido de las tareas modifica la
clasificación de los países de forma intuitiva: los países con empleos que
requieren un alto nivel de competencia digital y análisis suben en la
clasificación, mientras que aquellos donde las ocupaciones expuestas implican
menos tareas no rutinarias bajan.
Por lo tanto, la
exposición no es simplemente un atributo del título de una ocupación; es una
función de cómo se organiza, se equipa y se desempeña esa ocupación a nivel
local.
Con las políticas
adecuadas y una infraestructura digital suficiente, las herramientas de IA
genómica podrían contribuir a mejorar algunas ocupaciones en países de bajos
ingresos, en consonancia con la evidencia de que estas tecnologías pueden
redistribuir la experiencia de los trabajadores más experimentados a un grupo
más amplio de profesionales y mejorar el desempeño dentro de las ocupaciones
(Autor y Thompson, 2025; Gmyrek y Winkler, 2026; Noy y Zhang, 2023; Peng et
al., 2023). Sin embargo, las diferencias estructurales en las tareas, con un
menor contenido analítico no rutinario y más tareas manuales en las mismas
ocupaciones en los países en desarrollo, pueden limitar los beneficios
potenciales de estas tecnologías, mientras que la brecha digital podría exacerbar
aún más dichas disparidades. Betai y Chen (2025) aportan nueva evidencia que
respalda estas hipótesis mediante el uso de datos de uno de los mayores
mercados laborales en línea, donde la demanda laboral se origina principalmente
en países de altos ingresos y donde los países en desarrollo son los
principales proveedores de talento. El estudio revela que la IA de nueva
generación se asoció con una marcada disminución en el volumen y el valor de la
subcontratación internacional de servicios a países en desarrollo,
especialmente en el caso de las habilidades consideradas más susceptibles de
automatización. Si bien algunos trabajadores se beneficiaron de un cambio hacia
tareas que requieren mayor valor y complejidad, representaron un grupo
relativamente pequeño.
En resumen, aunque
la IA de nueva generación se suele considerar un fenómeno global, su adopción y
sus impactos en el mercado laboral serán desiguales. Sin inversiones
específicas y políticas de mercado laboral, es probable que las ganancias de
productividad se concentren donde los obstáculos digitales sean menores
—principalmente en las economías más ricas y en las empresas mejor equipadas—,
mientras que los riesgos de desplazamiento no se retrasarán de la misma manera
para el subconjunto conectado de trabajadores en entornos más pobres”.
8. Por fin, habrá que estar muy atentos a los debates en la próxima Conferencia Internacional del Trabajo, que se celebrará en la sede la OIT en Ginebra los días 1 a 12 de junio sobre los proyectos de Convenio y Recomendación sobre el trabajo decente en la economía de plataformas, por la real importancia que puede tener su aprobación, en especial el Convenio.
Conviene señalar
que el apartado X del Convenio versa sobre el impacto del uso de sistemas
automatizados, y dispone lo siguiente:
“Artículo 12
Todo Miembro
exigirá a las plataformas digitales de trabajo que informen a los trabajadores
de plataformas digitales, antes de su empleo o contratación, y a sus
representantes o a las organizaciones representativas de trabajadores y, cuando
existan, a las organizaciones que representen a los trabajadores de plataformas
digitales, sobre:
a) el uso de
sistemas automatizados, basados en algoritmos o en métodos similares, con fines
de seguimiento o evaluación del trabajo o de generación de decisiones relativas
al trabajo;
b) la medida en
que el uso de tales sistemas automatizados tiene un impacto en las condiciones
de trabajo de los trabajadores de plataformas digitales o en el acceso al
trabajo.
Artículo 13
Todo Miembro
exigirá a las plataformas digitales de trabajo que el uso que hagan de los
sistemas automatizados mencionados en el artículo 12 no vulnere los principios
y derechos fundamentales en el trabajo.
Artículo 14
Todo Miembro
exigirá a las plataformas digitales de trabajo que velen por que, cuando las
decisiones sean generadas por un sistema automatizado, los trabajadores de
plataformas digitales y sus representantes o las organizaciones representativas
de trabajadores y, cuando existan, las organizaciones que representen a los
trabajadores de plataformas digitales tengan acceso previa solicitud, sin
demora injustificada, a:
a) una explicación
por escrito de las decisiones que afecten a sus condiciones de trabajo o a su
acceso al trabajo;
b) una revisión
por humanos de las decisiones que tengan como consecuencia el no abono de todo
monto adeudado a los trabajadores de plataformas digitales, o la suspensión o
desactivación de sus cuentas, o la terminación de su empleo o contratación con
una plataforma digital de trabajo”.
Y en el proyecto
de Recomendación, la misma temática es abordada en el apartado VII en estos
términos complementarios del Convenio:
“13. Los Miembros
deberían alentar a las plataformas digitales de trabajo a que, cuando faciliten
la información sobre el uso de sistemas automatizados, se refieran a los
siguientes aspectos:
a) los principales
parámetros que repercuten en las condiciones de trabajo de los trabajadores de
plataformas digitales o en su acceso al trabajo, y la importancia relativa de
estos parámetros;
b) el grado de
intervención humana en el proceso de toma de decisiones;
c) cualesquiera
cambios ulteriores relativos a los apartados a) o b).
14. Los Miembros
deberían alentar a las plataformas digitales de trabajo a que realicen un
seguimiento y evaluaciones regulares del impacto del uso de los sistemas
automatizados, y apliquen las medidas correctivas necesarias, en colaboración
con los representantes de los trabajadores de plataformas digitales o las
organizaciones representativas de trabajadores y, cuando existan, las
organizaciones que representen a los trabajadores de plataformas digitales.
15. Los Miembros
deberían, al aplicar el artículo 13 del Convenio, exigir a las plataformas
digitales de trabajo que adopten medidas para velar, en particular, por que el
uso que hagan de los sistemas automatizados:
a) no dé lugar a
ninguna discriminación contra los trabajadores de plataformas digitales,
incluido en lo que respecta a la remuneración o el pago, o al acceso al
trabajo;
b) no tenga
efectos nocivos para la seguridad y salud de los trabajadores de plataformas
digitales, incluidos los derivados del incremento de su exposición a peligros
psicosociales o al incremento del riesgo de accidentes del trabajo,
enfermedades profesionales y cualquier otro daño para su salud”.
9. Refiriéndonos al
uso de la IA en las políticas de empleo cabe referenciar el artículo de Zeltia
Lado y Santiago Boquete, Directora general de Formación y Cualificación para el
Empleo, y Subdirector del Servicio de Empleo de Galicia, respectivamente, “La
IA aplicada a los servicios públicos de empleo. Hacia un sistema de
intermediación, orientación y formación basado en competencias profesionales” , cuyo resumen es el siguiente:
“El artículo
analiza cómo la Ley 3/2023 sitúa la intermediación laboral en el centro de las
políticas activas de empleo en España, redefiniendo su alcance y enfatizando el
uso de tecnologías avanzadas como la inteligencia artificial. Esta ley amplía
el concepto de intermediación para incluir actividades como la prospección de
ofertas y el perfilado competencial de los demandantes, implicando a los
Servicios Públicos de Empleo en una gestión más eficiente y personalizada. En
este contexto, se destaca EMi (Empleo Inteligente), una solución tecnológica
implementada por la Xunta de Galicia que utiliza IA y Big Data para mejorar la
intermediación basada en competencias. EMi facilita el emparejamiento entre
oferta y demanda laboral, optimiza la inserción de colectivos prioritarios y
permite una comprensión más profunda del mercado laboral, adaptándose a las
nuevas realidades y desafíos demográficos y tecnológicos”.
10. En el ámbito
doctrinal, cabe hacer referencia al reciente artículo de la profesora Arántzazu Vicente, “Inteligencia artificial para la
intermediación laboral en los servicios públicos de empleo” (Revista general de
Derecho del Trabajo y de la Seguridad Social , núm. 73 marzo 2026) , cuyo
resumen es el siguiente:
“El análisis del
proceso de intermediación laboral que lleva a cabo el Servicio valenciano de
Empleo (LABORA) ha revelado una práctica administrativa anclada en
procedimientos obsoletos y reactivos. El emparejamiento automático es residual
y no prioriza a los colectivos vulnerables en las ofertas de empleo ordinarias.
El trabajo propone transitar hacia una "intermediación proactiva"
mediante herramientas de Inteligencia Artificial que realicen búsquedas activas
para los demandantes de empleo. Se propone, entre otras medidas: la inclusión
estratégica de perfiles prioritarios en todos los procesos de intermediación
laboral y el marketing directo de incentivos económicos para las empresas.
Asimismo, se sugiere acabar con la exclusión de la contratación de colectivos
priorizados en el ámbito del empleo doméstico alineando las políticas activas
de empleo con el cambio de modelo de cuidados de larga duración que se
contempla en el Plan de Recuperación, Transformación y Resiliencia de España”
11. Por último, prestar
atención a las personas muy bien conocedoras de aquello que significa la IA es
absolutamente necesario. Por ello, me ha parecido muy interesante la lectura de
la entrevista que la redactora de la revista Alternativas Económicas (núm. 144,
marzo 2026), Ariadna Trillas, ha realizado al Director del Instituto de
Investigación en Inteligencia Artificial del CSIC, Carles Sierra , a la que ha dado el muy significativo título de “Europa debe defender una IA
responsable y ética”.
Al preguntarle sobre
el impacto en la vida laboral, reconoce que “es muy difícil saber que va pasar.
Es seguro que hay trabajos que se automatizarán. Siempre se han automatizado
trabajos, pero la cuestión es la escala masiva a la que pueda suceder. La forma
en la que trabajamos cambiará”. Y más adelante enfatiza que “Para mí, es muy
relevante como la IA pone aún más al descubierto el sistema capitalista. Con la
IA se evidencia aún más en manos de quien están los medios de producción.
Cuatro empresas están extrayendo dinero de todo el mundo mediante sistemas desarrollados
con información y datos de todo el mundo y con los que intentan dominarnos...”.
Continuará.
Mientras tanto, buena lectura.
4 comentarios:
En mi opinión el uso de la IA en la Prevencion de riesgos laborales tiene que ponderar lo que es más importante en mi opinión, y es que la siniestralidad y la mortalidad laboral en España (este año pasado fueron 735 los fallecidos en el trabajo (superior al anterior 2024), y en concreto 251 los decesos por infarto de miocardio). Los accidentes laborales con baja sobrepasaron los 600.000, y sumados los sin baja pasan del millón. Todos estos son datos fidedignos que hacen que la implantacion de la IA deba y requiera a su vez, ser eficaz, como señala el articulo 14 de la LPRL de 1995, hace ahora más de 30 años. Así que la IA, en mi modesta opinión, y las decenas de cátedras al respecto creadas en España en las diferentes Universidades, hará aproximadamente un año de ello, creo debe demostrar antes su arraigo haciendo descender estas cifras que llaman mucho la atención todavía a toda la Unión Europea. Respetuosamente, estimado profesor Eduardo Rojo.
Muchas gracias José María por tus siempre muy interesantes y útiles aportaciones, muy apegadas a la realidad del mundo del trabajo.
Hola Eduardo, quienes trabajamos en el diseño de herramientas PRL impulsadas por inteligencia artificial estamos descubriendo un potencial que, a muy corto plazo, va a suponer un cambio de paradigma en la prevención de riesgos laborales.
Un ejemplo claro: la posibilidad de detectar cualquier situación de riesgo a través de circuitos cerrados de televisión, 24 horas al día, 7 días a la semana, multiplica exponencialmente la capacidad de supervisión. Y si esa capacidad se canaliza de forma inteligente por parte de la empresa — detectar y reportar a tiempo situaciones de riesgo crítico, mejorar la concienciación de los trabajadores con datos reales, desplegar estrategias preventivas focalizadas donde realmente se necesitan o incluso predecir sucesos no deseados antes de que ocurran — el impacto será un avance significativo en la reducción de la accidentalidad que tanto nos lastra.
Hola Luís, muchas gracias por tu comentario y aportación al debate. Siempre es muy útil aprender de las reflexiones y propuestas de las personas conocedoras de aquello a lo que presto atención en el blog. Saludos cordiales.
Publicar un comentario