0. Ejemplos de la
vida real… para “abrir boca”.
“Amazon ha
sustituido recientemente a sus mandos intermedios y trabajadores de recursos
humanos por inteligencia artificial para determinar cuándo un trabajador ha
dejado de ser útil y debe ser despedido. No hay ningún humano al que apelar, no
hay que negociar con un bot. Esta es la secuela más aburrida posible de
Terminator, en la que los robots no están aquí para asesinar o esclavizarte,
sino para enviarte un mensaje de texto sarcástico en el que se te informa de
que no necesitarás ir a trabajar mañana o, de hecho, nunca más” (Jessa
Crispin. “Welcome
to dystopia: getting fired from your job as an Amazon worker by an app” y Spencer
Soper “Fired by Bot at Amazon: `It’s You Against the Machine”.
“El equipo de big
data de la empresa ha analizado tu actividad en Jira, Confluence, Gmail, chats,
documentos, paneles y te etiquetó como empleado poco comprometido e
improductivo. En otras palabras, no siempre estabas presentes en el lugar de
trabajo cuando lo hacías de forma remota”. Esto que acabas de leer es parte de
un mensaje de correo electrónico que han recibido 150 empleados de la empresa
rusa Xsolla (de un total de 500) y con el que han sido despedidos, justificando
dicha decisión por el análisis efectuado con Inteligencia Artificial”. (“150
desarrolladores despedidos por "improductivos" después de que un
algoritmo analizara su actividad en Jira, Gmail y otras herramientas: el caso
de Xsolla”).
I. Introducción.
1. El ya muy
cercano mes de septiembre, en el que la vida académica, tanto la docente como
la investigadora, se reinicia después del descanso vacacional, suele ser el de
celebración de congresos. Aunque la crisis sanitaria los ha convertido en
reuniones “on line” durante bastantes meses, y en reuniones “híbridas” en algunos
casos en la actualidad, no han dejado de tener lugar.
En el ámbito
laboralista el ejemplo de los dos últimos congresos, XXX y XXXI de la Asociación
Española de Derecho del Trabajo y de la Seguridad Social, así como el del XIII tercer congreso regional europeo de
la Sociedad Internacional de Derecho del Trabajo y de la Seguridad Social y su XXIII Congreso mundial a celebrar a
principios de septiembre, son ejemplos significativos de las reuniones on line.
El I Congreso Interuniversitario OIT sobre justicia
social, trabajo decente y objetivos de desarrollo sostenible, que tiene
previsto celebrarse el mes de noviembre en la Universidad Complutense de
Madrid, es un ejemplo de las reuniones híbridas.
Todos ellos, sin
duda alguna, son de indudable calidad científica, si bien se ha encontrado a
faltar, creo que mi punto de vista será compartido por la gran mayoría de
participantes, esas reuniones e intercambios de pareceres “en vivo y en
directo”.
2. Pues bien hay
dos reuniones de mucho interés, con muy cualificadas y cualificados ponentes
del ámbito laboral, económico y tecnológico, más concretamente una Jornada y un
Congreso internacionales, que van a dedicar su atención al impacto de la
tecnología en las relaciones de trabajo, en las que voy a participar,
agradeciendo a quienes las han organizado su invitación a participar en la
mismas, y que me sirven de “excusa”, si es que fuera necesario, que no lo es
dada la importancia que dicha temática tiene en la actualidad para la doctrina
laboralista, para poner en orden, actualizar y ampliar, reflexiones, normas y
documentos que abordan, tanto desde una perspectiva general como
específicamente centrada en el mundo del trabajo, el impacto de la tecnología
en ese mundo cada vez más cambiante y diversificado, y en el que el impacto de
la crisis sanitaria que sufrimos desde marzo de 2020 esté teniendo indudable
relevancia. Por poner solo un ejemplo, parémonos a pensar en el desarrollo y
potenciación del teletrabajo, muy superior con casi toda seguridad al que se
hubiera producido de no mediar dicha crisis.
Me estoy
refiriendo en primer lugar al “I Seminario
internacional sobre género y colectivos desfavorecidos: discriminación en el
empleo, el uso de algoritmos artificiales y la inteligencia artificial”, que tendrá
lugar el 17 de septiembre en la Universidad de Málaga, dirigido por la
profesora Lucía Aragüez y el profesor Miguel Ángel Salado, cuya presentación
pone claramente de manifiesto cual es la finalidad perseguida: “La robótica, la
inteligencia artificial y los algoritmos digitales se están implantando de
forma vertiginosa en las empresas, afectando al mundo del trabajo. A ello se
suma la ausencia de una normativa concreta, creando un escenario de inseguridad
jurídica cuando se recurren a dichas herramientas para establecer sesgos
discriminatorios por razón de género o de otra índole. Así, en el presente
Seminario reflexionaremos sobre esta materia, con el objetivo de crear un marco
de mayor protección para las personas trabajadoras, y más concretamente para
las mujeres, al ser un colectivo ciertamente más vulnerable en el ámbito
laboral”.
Este es el
programa:
Primer panel (José
Antonio Fernández Avilés y Eduardo rojo) dedicado a “La inteligencia artificial
y el uso de algoritmos digitales: principales retos en el ámbito laboral”, y
“La inteligencia artificial y la acción colectiva y sindical en el
trabajo”. Mi ponencia debe centrarse
fundamentalmente en el análisis analizar el papel que están teniendo, y que en
su caso debieran tener la representación, unitaria y sindical, en todo aquello
que afecta a la inteligencia artificial y los algoritmos en el trabajo, es
decir la intervención vía convencional ya que no existe una normativa propia al
respecto, si exceptuamos, refiriéndonos concretamente a España la muy reciente
modificación del art. 64 de la Ley del Estatuto de los trabajadores por el Real
Decreto-Ley 9/2021 de 6 de mayo, y por supuesto el marco general contenido en
la Ley Orgánica 3/2018 de 5 de diciembre, de Protección de Datos Personales y
garantía de los derechos digitales (arts. 87 a 91).
Primera mesa
redonda. Pilar Rivas Vallejo y Esperanza Macarena Sierra Benítez:
“Discriminación digital por razón de género”, y “La robotización del trabajo
desde un enfoque de género y la ausencia de normativa nacional e
internacional”.
Segundo panel.
Michael Doherty y Victoriano Giral Garcia. “Conceptual clarifications on
artificial intelligence, algrorithms, robotics and big data: international
level”, y análisis técnico de la inteligencia artificial y el uso de algoritmos
en la toma automatizada de decisiones: la ética y la discriminación”.
Segunda mesa
redonda. Antonio Márquez Prieto y Pablo García Mexias. “Entre algoritmos,
género humano y género artificial” , y “Cuestiones actuales de la sociedad
digital: brechas y brechas de género en el referido contexto”.
Panel de clausura.
Carmen Sáez Lara y Juan Carlos Álvarez Cortes. “Discriminación digital y sesgos
algorítmicos en el empleo: colectivos desfavorecidos”, y “El impacto de las
tecnologías en el ámbito laboral y de la Seguridad Social”.
En segundo lugar,
nos encontramos con el Congreso Internacional “De la economía
digital a la sociedad del e-work decente: condiciones para una revolución 4.0
justa e inclusiva”,
a celebrar los días 29 y 30 de septiembre”, organizado por la Universidad de Jaén
y cuyo equipo director está integrado por las profesoras María Rosa Vallecillo
y Estefanía González, y el profesor Cristóbal Molina, en el marco de su
proyecto de investigación que ya ha dado el fruto de un blog de obligado seguimiento sobre las
transformaciones tecnológicas y su impacto en la vida laboral, y en que en gran
medida es continuación a mi parecer del ciclo internacional de conferencias “De la revolución
industrial 4.0 a la sociedad 5.0: oportunidades y riesgos de la digitalización
para las nuevas sociedades del trabajo”, que tuvo lugar en diciembre de 2020,
cuyo objetivo general, que creo, con el permiso de su director y directoras,
que sigue siendo totalmente válido para el próximo Congreso, era el de “analizar
la repercusión, consecuencias, oportunidades y amenazas de la economía digital,
y sus cambios instrumentales, técnicos y del desarrollo tecnológico en las
relaciones de empleo, estableciendo un catálogo de nuevas realidades laborales
y su incidencia en los trabajadores, en los sistemas de protección social y en
el papel de los interlocutores sociales”.
El programa es el
siguiente:
Mesa general.
Visión general sobre economía digital y transformaciones tecnológicas. Esteban
Romero Frías y María José Díaz.
Panel de ponencias
I. ¿La digitalización crea, destruye o transforma el empleo? Jesús R. Mercader
Uguina y María Rosa Vallecillo Gámez
Panel de ponencias
II. Las metamorfosis de la organización del trabajo en la era digital y gestión
analítica de personas (ARH). Visión europea. Michele Tiraboschi, Marie
Peyronnet y Pilar Rivas Vallejo.
Panel de
ponencias. Las metamorfosis de la organización del trabajo en la era digital y
gestión analítica de personas (ARH). Visión iberoamericana. Cristina
Mangarelli y Juan Pablo Mugnolo
Panel de Ponencias
III. La transformación digital del trabajo y su impacto en la gestión de
prevención de riesgos laborales. Loïc
Lerouge, Ana Cristina Ribeiro Costa, Adrián Todolí Signes y Williams Jiménez
Policy.
Panel de ponencias
IV. El impacto de la era digital en los sistemas de protección social. Susana
Rodríguez Escanciano y Andrés Pastor Bermúdez.
Panel de
experiencias. Mesa de experiencias empresariales. Jobs301 Una nueva experiencia
en la búsqueda de empleo.
Mesa de desarrollo
local y digitalización. Diputación de Jaén y Cámara de Comercio de Granada.
Clausura. Eduardo
Rojo Torrecilla y Mari Luz Rodríguez Fernández.
3. El contenido de
la Jornada y el Congreso guarda muy directa relación con el de las Jornadas organizadas
por el Instituto Sindical de Estudios de la Confederación Europea de Sindicatos
sobre derechos laborales y las transiciones digitales (“Labour rights
& the digital transitions”, que organiza los días 28 y 29 de octubre
en Bruselas, tal como queda perfectamente puesto de manifiesto en su
presentación:
“El impacto de la
digitalización en la sociedad y en el mundo del trabajo es progresivo y no hará
más que generalizarse. Se manifiesta de diferentes maneras y formas. La
introducción de la IA en el lugar de trabajo conlleva beneficios para la
organización del trabajo, la producción y la evaluación del rendimiento
laboral. Por otro lado, plantea nuevos problemas: la vigilancia, las
implicaciones para la salud y la seguridad y, al menos formalmente, consiente
una mayor autonomía organizativa a los trabajadores, allanando el camino para
las posturas (favorables a los empresarios) a favor de una protección del
empleo "más ligera". Al mismo tiempo, están surgiendo nuevos modelos
de negocio, como el trabajo en plataformas y la gigeconomy. También asistimos a
la expansión de los mercados digitales y de los proveedores de servicios, como
Amazon, que con su extraordinario poder de mercado están cambiando los sectores
profesionales y las relaciones laborales. Frente a este efecto transformador,
¿cómo garantizar que la transición digital no se produzca a costa de los
trabajadores?” Esta conferencia propone una reflexión multidimensional sobre el
papel del derecho laboral, y trata de identificar las iniciativas que se han
tomado, o que podrían tomarse”.
En dichas Jornadas
se prestará atención al igual que se hará en
las reuniones de las Universidades de Málaga y Jaén, a cuáles son las políticas europeas al
respecto, la regulación normativa, cómo resuelven los tribunales los conflictos
que ya se han planteado, y de qué forma la negociación colectiva y el diálogo
social pueden abordar cuestiones tan relevantes como son, por ejemplo, los
derechos de todas las personas trabajadoras y la clarificación de quienes
prestan sus servicios bajo una relación contractual laboral y quienes la
desempeñan en régimen de verdadera autonomía.
Dando por mi parte
alguna aportación a esas preguntas, es necesario acercarse a los documentos
comunitarios, ya que existe una propuesta de Reglamento sobre regulación de la
inteligencia artificial; en España , la primera regulación normativa, aunque
referida únicamente al ámbito de la prestación de servicios en las empresas de
reparto, la encontramos en el RDL 9/2021, actualmente en fase tramitación
parlamentaria como proyecto de ley por el procedimiento de urgencia, y en el
ámbito europeo es obligada la mención a la Directiva (UE) 2019/1152 del
Parlamento Europeo y del Consejo, de 20 de junio de 2019, relativa a unas
condiciones laborales transparentes y previsibles en la Unión Europea. Sobre la
intervención judicial, la referencia a la trascendental sentencia de Pleno de
la Sala Social del Tribunal Supremo de 25 de septiembre de 2020, declarando la
laboralidad de la prestación de servicios de un trabajador de Glovo, es
obligada. Por fin, si nos acercamos a la negociación colectiva y al diálogo
social, podemos traer a colación, y volveré sobre ellos con detalle más
adelante, el acuerdo marco europeo sobre digitalización, de 22 de junio de
2020, y el convenio colectivo de Banca.
4. Pero antes, y
como consideración general, hay que referirse, siquiera sea con brevedad a la Estrategia
Nacional Española de Inteligencia Artificial, en la que se realiza una buena
explicación sobre los orígenes de la IA y su contenido, para la que no hay aún
“aún una definición formal y universalmente aceptada”. Aunque la IA nace como disciplina académica en
1956, se explica, “ha atravesado una serie de ciclos de altas expectativas
alternados con épocas de menor atención. A partir de sistemas basados en la
programación humana y los esquemas de decisión predeterminados, todo indica que
gracias a una serie de factores, se ha producido un salto exponencial que ha
puesto en marcha un proceso irreversible de expansión de la IA dentro de
nuestro sistema económico y social, sobre la base de sistemas autónomos que son
capaces de aprender y establecer las propias pautas de acción sobre la base del
análisis de un gran volumen de datos. Entre estos factores cabe destacar: El
enorme crecimiento en la cantidad de datos disponibles, los avances en la
potencia y capacidad de los sistemas de computación y almacenamiento, y la
investigación y desarrollo con éxito de nuevos algoritmos y métodos de
aprendizaje automático”.
A los efectos de
mi explicación sobre el impacto de la tecnología en las relaciones de trabajo,
es especialmente importante el eje estratégico núm. 6, “Establecer un marco
ético y normativo que refuerce la protección de los derechos individuales y
colectivos, a efectos de garantizar la inclusión y el bienestar social”,
especificando que las acciones previstas en este eje “buscan articular y
desarrollar servicios en tres ámbitos clave en las que incide la IA: Jurídico,
en el que deben protegerse derechos fundamentales que ya son reconocidos,
identificarse reformas legales necesarias, así como lagunas jurídicas que requieran
regulación adicional; Socio-tecnológico, creando una serie de metodologías,
estándares y procesos con los que desarrollar servicios automatizados, y ético,
que es fundamental para asegurar que el uso de la IA acompañe los valores de la
sociedad y opere en beneficio de la inclusión y el bienestar”.
En esta misma
línea hay que mencionar la Moción aprobada
(con modificaciones sobre el texto inicial) por el Senado el 29 de marzo, a
propuesta del grupo parlamentario socialista “por la que se insta al gobierno a
desarrollar la estrategia nacional de
inteligencia artificial”, en la que se le pide, entre otras, “Desarrollar
la Estrategia Nacional de Inteligencia Artificial que permita impulsar el
desarrollo e implantación de la inteligencia artificial en España, las
Comunidades Autónomas y el resto de administraciones, así como proporcionar un
marco de referencia e impulso para el sector privado:
1. Convertir a
España en un referente en excelencia científica e innovación en inteligencia
artificial.
2. Preparar a
España para beneficiarse de las transformaciones socioeconómicas que ofrece la
inteligencia artificial.
3. Impulsar la
inteligencia artificial como motor de innovación y crecimiento económico
social, inclusivo y sostenible.
… 4. Generar un
entorno de confianza con relación a la inteligencia artificial, tanto en el
plano de su desarrollo tecnológico, como en el regulatorio, considerando
aspectos éticos e impacto social…”.
II. Examen de los documentos comunitarios (2019-
2021).
1. Me refiero en
primer lugar a la Resolución del
Parlamento Europeo, de 12 de febrero de 2019, sobre una política industrial
global europea en materia de inteligencia artificial y robótica. Su contenido de interés
laboral, de la que reproduzco algunos contenidos que tienen incidencia directa
en la vida laboral.
“5.3. Toma de
decisiones: límites de la autonomía de la inteligencia artificial y la robótica
153. Pide que las personas tengan derecho a saber,
derecho de recurso y derecho a reparación cuando la inteligencia artificial se
utilice para decisiones que les afecten y conlleven un riesgo significativo
para los derechos o libertades individuales o puedan menoscabarlos;
154. Destaca que los algoritmos de los sistemas de
toma de decisiones no deben utilizarse sin una evaluación algorítmica de
impacto preliminar, a menos que esté claro que no tienen un impacto
significativo en la vida de las personas;
5.4.
Transparencia, sesgo y explicación de los algoritmos
156. Señala que, si bien la inteligencia
artificial aporta grandes beneficios a la automatización y la toma de
decisiones, también conlleva un riesgo inherente cuando los algoritmos son
estáticos y opacos; destaca, en este contexto, la necesidad de una mayor
transparencia en lo que se refiere a los algoritmos;
157. Pide a la Comisión, a los Estados miembros y
a las autoridades encargadas de la protección de datos que definan y adopten
todas las medidas que se impongan para evitar o minimizar la discriminación y
el sesgo algorítmicos y que desarrollen un marco ético común sólido para el
tratamiento transparente de los datos personales y la toma de decisiones
automatizada que sirva de guía para la utilización de los datos y la aplicación
del Derecho de la Unión;
158. Subraya que todo sistema de inteligencia
artificial debe desarrollarse respetando los principios de transparencia y de
responsabilidad algorítmica de modo que los seres humanos puedan comprender sus
acciones; señala que, a fin de generar confianza en la inteligencia artificial
y permitir el progreso de la misma, los usuarios deben ser conscientes de cómo
se utilizan sus datos, otros datos y datos derivados de sus datos, cuando se
comunican o interactúan con un sistema de inteligencia artificial o con humanos
que se apoyan en un sistema de inteligencia artificial; considera que esto
contribuirá a una mejor comprensión y a una mayor confianza entre usuarios;
destaca que la inteligibilidad de las decisiones debe ser una norma de la Unión
de conformidad con los artículos 13, 14 y 15 del RGPD; recuerda que el RGPD ya
dispone un derecho a ser informado acerca de la lógica que subyace al
tratamiento de datos; destaca que, con arreglo al artículo 22 del RGPD, los
individuos tienen derecho a una intervención humana cuando una decisión basada
en un tratamiento automatizado les afecte de forma significativa;
168. Destaca la importancia de abordar el sesgo de
los promotores y, por consiguiente, la necesidad de contar con una mano de obra
diversificada en todas las ramas del sector de las tecnologías de la
información, y con mecanismos de salvaguardia para evitar distorsiones basadas
en el género y la edad en los sistemas de inteligencia artificial;
171. Destaca la necesidad de elaborar protocolos
para el seguimiento continuo y la detección de sesgos algorítmicos;
176. Subraya que la difusión de la inteligencia
artificial y la robótica debe llevarse a cabo dentro del pleno respeto de los
derechos humanos y que en ningún caso deben reproducirse en las máquinas y los
robots los estereotipos contra las mujeres ni ninguna otra forma de
discriminación;
180. Reitera que los sistemas de inteligencia
artificial no deben crear sesgos ni potenciarlos; subraya que, a la hora de
elaborar y utilizar los algoritmos se deben incluir consideraciones sobre sesgo
y equidad en todas las fases, desde el diseño hasta la aplicación; considera
que el conjunto de datos y el algoritmo deben evaluarse y someterse a pruebas
periódicas para garantizar la exactitud de la toma de decisiones””.
2. Es ahora el
momento del examen de la Comunicación de la
Comisión Europea de 8 de abril de 2019.
La
importancia que ha adquirido la inteligencia artificial (IA) en todos los
ámbitos, y no únicamente en el ámbito científico, llevó a la Comisión Europea a
crear un grupo de alto nivel sobre esta, al que se le encomendó la elaboración
de unas directrices éticas, las cuales propugnan que para lograr una IA fiable
son necesarios tres componente: debe ser conforme a la ley, debe respetar los
principios éticos y debe ser sólida”, y
también se le pidió la elaboración de unas recomendaciones, habiendo sido
presentadas tanto las directrices como las recomendaciones en marzo de este año
y siendo recogidas en la Comunicación presentada por la CE que lleva por
(significativo) título “Generar
confianza en la inteligencia artificial centrada en el ser humano”.
Si me
detengo en este texto es justamente porque en la introducción de la
Comunicación se resalta, con acierto a mi entender, que “La IA puede beneficiar
a la sociedad y a la economía en su conjunto. Es una tecnología estratégica que
se está desarrollando y utilizando a buen ritmo en todo el mundo. No obstante,
también trae consigo nuevos retos para el futuro del trabajo y plantea
cuestiones jurídicas y éticas”, y que “aplicar de manera irreflexiva la
tecnología a medida que se desarrolla produciría… resultados problemáticos, así
como la renuncia de los ciudadanos a aceptarla o utilizarla”, siendo necesario
de todo punto en cada una de las fases de desarrollo de la IA garantizar “la
diversidad en cuanto al género, el origen
racial o étnico, la religión o las creencias, la discapacidad y la edad”.
Los siete
requisitos esenciales que deben cumplirse para logar esa fiabilidad deseada de
la IA son los siguientes: “Intervención y supervisión humanas. Solidez y
seguridad técnicas. Privacidad y gestión de datos. Transparencia. Diversidad,
no discriminación y equidad. Bienestar social y medioambiental. Rendición de
cuentas”.
Del amplio
contenido explicativo de cada uno de esos requisitos, deseo destacar las tesis
de que “Para que las personas puedan confiar en el tratamiento de datos, debe
garantizarse que tienen el pleno control sobre sus propios datos, y que los
datos que les conciernen no se utilizarán para perjudicarles o discriminarles”;
“en la medida de lo posible debe aportarse la explicabilidad del proceso de
toma de decisiones algorítmico, adaptada a las personas afectadas. Debe
proseguirse la investigación en curso para desarrollar mecanismos de
explicabilidad. Además, deben estar disponibles las explicaciones sobre el
grado en que un sistema de IA influye y configura el proceso organizativo de
toma de decisiones, las opciones de diseño del sistema, así como la
justificación de su despliegue (garantizando, por tanto, no solo la
transparencia de los datos y del sistema, sino también la transparencia del modelo
de negocio)”; “el impacto de los sistemas de IA debe considerarse no solo desde
una perspectiva individual, sino también desde la perspectiva de la sociedad en
su conjunto. Debe prestarse especial atención al uso de los sistemas de IA,
particularmente en situaciones relacionadas con el proceso democrático,
incluida la formación de opinión, la toma de decisiones políticas o en el
contexto electoral. También debe tenerse en cuenta el impacto social de la IA.
Si bien los sistemas de IA pueden utilizarse para mejorar las habilidades
sociales, de la misma manera pueden contribuir a su deterioro”.
3. En tercer
lugar hay que mencionar la Resolución del
Parlamento Europeo, de 20 de octubre de 2020, con recomendaciones destinadas a
la Comisión sobre un marco de los aspectos éticos de la inteligencia
artificial, la robótica y las tecnologías conexas.
El
PE hace hincapié en que la inteligencia artificial, la robótica y las tecnologías
conexas “deben ser socialmente responsables y deben salvaguardar y promover los
valores fundamentales de nuestra sociedad, como la democracia, la pluralidad e
independencia de los medios de comunicación y una información objetiva y de
libre acceso, la salud y la prosperidad económica, la igualdad de
oportunidades, los derechos sociales y laborales, una educación de calidad, la
diversidad cultural y lingüística, la paridad de género, la alfabetización
digital, la innovación y la creatividad”.
En el anexo a la
Resolución se encuentran las “recomendaciones detalladas respecto al contenido
de la propuesta solicitada”. Tiene especial interés su lectura ya que
encontramos las definiciones de inteligencia artificial, robótica y tecnologías
conexas.
“A efectos del
presente Reglamento, se entenderá por:
a) «inteligencia
artificial», un sistema basado en programas informáticos o incorporado en
dispositivos físicos que manifiesta un comportamiento inteligente al ser capaz,
entre otras cosas, de recopilar y tratar datos, analizar e interpretar su
entorno y pasar a la acción, con cierto grado de autonomía, con el fin de
alcanzar objetivos específicos;
… c) «robótica»,
las tecnologías que permiten que las máquinas controladas automáticamente, reprogramables
y multifuncionales realicen en el mundo físico acciones tradicionalmente
realizadas o iniciadas por los seres humanos, en particular mediante la
inteligencia artificial o las tecnologías conexas;
d) «tecnologías conexas», las tecnologías que
permiten que los programas informáticos controlen, con un grado de autonomía
parcial o total, un proceso físico o virtual; las tecnologías capaces de
detectar los datos biométricos, genéticos o de otro tipo; y las tecnologías que
copian o utilizan de otro modo características humanas”.
Sobre la
definición y conceptuación de la IA cabe también referirse a un importante
documento del servicio digital intergubernamental del Reino Unido, “A guide to using
artificial intelligence in the public sector” , que lo hace en estos términos:
“Es un campo de
investigación que abarca la filosofía, la lógica, la estadística, la
informática, las matemáticas, la neurociencia, la lingüística, la psicología
cognitiva y la economía. La IA puede definirse como el uso de la tecnología
digital para crear sistemas capaces de realizar tareas que comúnmente se piensa
que requieren inteligencia. La IA está en constante evolución, pero en
general:- implica máquinas que utilizan la estadística para encontrar patrones
en grandes cantidades de datos- es la capacidad de realizar tareas repetitivas
con datos sin necesidad de la constante guía humana”), pero al mismo tiempo se alerta de que el procesamiento de grandes
cantidades de datos, “a menudo relacionados con datos personales, en particular
sobre el comportamiento, las relaciones sociales, las preferencias privadas y
la identidad de una persona, pueden entrañar graves riesgos para el derecho a
la privacidad, en particular cuando se emplea para la identificación, el
rastreo, el establecimiento de perfiles, el reconocimiento facial, la
predicción de la conducta y/o la calificación de las personas”.
4. Mi atención se
centra a continuación en la Comunicación de la Comisión “Brújula Digital
2030: el enfoque de Europa para el Decenio Digital”, presentada el 9
de marzo de este año. El documento subraya la gran importancia de formar a toda
la ciudadanía en capacidades digitales, y de disponer de profesionales del
sector digital con elevada cualificación, y se manifiesta en estos términos:
“En el mundo del
mañana, si queremos controlar nuestro propio destino, confiar en nuestros
medios, valores y posibilidades, debemos contar con ciudadanos capacitados y
capaces digitalmente, trabajadores con competencias digitales y muchos más
expertos en el sector digital que en la actualidad. Esto debería fomentarse
mediante el desarrollo de un ecosistema educativo digital de alto rendimiento,
así como de una política eficaz para promover vínculos con el talento de todo
el mundo y atraerlo.
Las competencias
digitales serán esenciales para reforzar nuestra resiliencia colectiva como
sociedad. Las capacidades digitales básicas para todos los ciudadanos y la
oportunidad de adquirir nuevas competencias digitales especializadas para los
trabajadores son un requisito previo para participar activamente en el Decenio
Digital, tal como se explica en la Agenda de Capacidades Europea.
Unas competencias
digitales avanzadas requieren algo más que dominar la codificación o tener unos
conocimientos informáticos básicos. La formación y la educación digitales deben
apoyar a unos trabajadores que puedan adquirir competencias digitales
especializadas para ocupar puestos de trabajo de calidad y ejercer unas
carreras profesionales gratificantes. En 2019 había 7,8 millones de
especialistas en tecnologías de la información y las comunicaciones, y la tasa
de crecimiento anual previa alcanzaba el 4,2 %. Si esta tendencia continúa, la
UE estará muy por debajo de las necesidades previstas de 20 millones de
expertos, por ejemplo, en ámbitos clave como la ciberseguridad o el análisis de
datos. Más del 70 % de las empresas afirman que la falta de personal con
competencias digitales adecuadas constituye un obstáculo para la inversión.
También existe un grave desequilibrio entre sexos, ya que solo uno de cada seis
especialistas en tecnologías de la información y las comunicaciones y uno de
cada tres graduados en ciencias, tecnología, ingeniería y matemáticas son
mujeres. Esto se ve agravado por la falta de capacidad en términos de programas
de educación y formación especializados en ámbitos como la inteligencia
artificial, la cuántica y la ciberseguridad, y por la escasa integración de las
disciplinas digitales y las herramientas multimedia educativas en otras
disciplinas. Hacer frente a este reto requiere una inversión enorme para formar
a las futuras generaciones de trabajadores y mejorar y reorientar sus
cualificaciones.
Proponemos que, en
2030… además del objetivo sobre competencias digitales básicas establecido en
el Plan de acción del pilar europeo de derechos sociales, estén trabajando 20
millones de especialistas en tecnologías de la información y las comunicaciones
en la UE, con convergencia entre mujeres y hombres”.
5. De manera
conjunta, la atención se centra ahora en la Comunicación de la Comisión “Fomentar un enfoque europeo de la
Inteligencia Artificial” (disponible
únicamente en inglés)
y la
Propuesta de Reglamento “por el que se
establecen normas armonizadas en materia de inteligencia artificial (ley de
inteligencia artificial) y se modifican determinados actos legislativos de la
Unión”
, presentadas el 21 de abril.
En la Comunicación
se expone que “Tal y como se expuso en el Libro Blanco sobre la IA, y se
confirmó en gran medida en la consulta pública posterior, el uso de la IA crea
una serie de riesgos específicos elevados para los que la legislación existente
es insuficiente. Si bien ya existe un sólido marco legislativo a nivel nacional
y de la UE para proteger los derechos fundamentales y garantizar la seguridad y
los derechos de los consumidores, incluyendo, en particular, el Reglamento
General de Protección de Datos y la "Directiva de Aplicación de la Ley,
ciertas características específicas de las tecnologías de IA (por ejemplo, la
opacidad) pueden hacer que la aplicación y el cumplimiento de dicha legislación
sean más difíciles y generen riesgos elevados para los que se necesita una
respuesta normativa adaptada. Por ello, la propuesta introduce un conjunto de
normas armonizadas aplicables al diseño, desarrollo y uso de determinados
sistemas de IA de alto riesgo, así como restricciones a determinados usos de
los sistemas de identificación biométrica a distancia.
…. La propuesta de
la Comisión persigue, por tanto, el doble objetivo de abordar los riesgos
asociados a aplicaciones específicas de la IA de forma proporcionada y de
promover su adopción. Para estar preparado para el futuro y favorecer la
innovación, el marco jurídico propuesto está diseñado para intervenir solo
cuando sea estrictamente necesario y de forma que se minimice la carga para los
operadores económicos, con una estructura de gobernanza ligera”.
La importancia del
Reglamento viene determinada en primer lugar por las definición de que debe
entenderse por sistemas de inteligencia artificial, que será en concreto (art.
3) “el software que se desarrolla empleando una o varias de las técnicas y
estrategias que figuran en el anexo I y que puede, para un conjunto determinado
de objetivos definidos por seres humanos, generar información de salida como
contenidos, predicciones, recomendaciones o decisiones que influyan en los
entornos con los que interactúa”. Hemos de acudir por consiguiente al anexo I,
siendo aquellas las siguientes: “a) Estrategias de aprendizaje automático,
incluidos el aprendizaje supervisado, el no supervisado y el realizado por
refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje
profundo; b) Estrategias basadas en la lógica y el conocimiento, especialmente
la representación del conocimiento, la programación (lógica) inductiva, las
bases de conocimiento, los motores de inferencia y deducción, los sistemas
expertos y de razonamiento (simbólico); c) Estrategias estadísticas, estimación
bayesiana, métodos de búsqueda y optimización”.
Es importante
igualmente referirse al art.6, que regula las reglas de clasificación para los
sistemas de IA de alto riesgo, considerándolo como tal “cuando reúna las dos
condiciones que se indican a continuación, con independencia de si se ha
introducido en el mercado o se ha puesto en servicio sin estar integrado en los
productos que se mencionan en las letras a) y b): a)el sistema de IA está destinado
a ser utilizado como componente de seguridad de uno de los productos
contemplados en la legislación de armonización de la Unión que se indica en el
anexo II, o es en sí mismo uno de dichos productos; b)conforme a la legislación
de armonización de la Unión que se indica en el anexo II, el producto del que
el sistema de IA es componente de seguridad, o el propio sistema de IA como
producto, debe someterse a una evaluación de la conformidad realizada por un
organismo independiente para su introducción en el mercado o puesta en servicio”;
si bien, lo realmente importante a efectos de mi exposición es la
especificación recogida en el apartado 2 del artículo, donde se indica que “además
de los sistemas de IA de alto riesgo mencionados en el apartado 1, también se
considerarán de alto riesgo los sistemas de IA que figuran en el anexo III”.
Pues bien, si
acudimos al Anexo III , se consideran de alto riesgo en el ámbito del empleo,
gestión de trabajadores y acceso al
autoempleo, los siguientes: “a) sistemas de IA destinados a utilizarse para la
contratación o selección de personas físicas, especialmente para anunciar
puestos vacantes, clasificar y filtrar solicitudes o evaluar a candidatos en el
transcurso de entrevistas o pruebas; b) IA destinada a utilizarse para tomar
decisiones relativas a la promoción y resolución de relaciones contractuales de
índole laboral, a la asignación de tareas y al seguimiento y evaluación del
rendimiento y la conducta de las personas en el marco de dichas relaciones….”.
O sea, si me permiten la simplificación, se trata de todo aquello que afecta a
la relación laboral, desde los estadios previos de acceso al empleo hasta su
finalización.
La propuesta de
Reglamento ya ha sido objeto de diversas valoraciones y críticas que conviene analizar.
En primer lugar, el examen efectuado por el
Servicio de Estudios de la UGT, siendo el título del texto claramente
ilustrativo de la valoración positiva de aquella: “Análisis de la Ley
europea de Inteligencia Artificial. La Comisión nos da la razón en todos
nuestros planteamientos” , destacando que “La propuesta -que deberá pasar el
tradicional trámite de aprobación por Parlamento y Consejo Europeos-, entra a
regular sin ambages el impacto de la IA – y por extensión, la algoritmia- en
las relaciones laborales. Este simple hecho ya supone un cambio muy sustancial
en comparación con comunicaciones y trabajos anteriores de la propia Comisión
Europa, que prácticamente ignoraba el factor trabajo en sus análisis”. Tras un
detallado análisis de la propuesta, concluye que “La gestión algorítmica debe
tener siempre un propósito definido, unos objetivos claros y un provecho
tangible, ya sea organizacional o productivo. De no demostrarse a priori tal
efecto beneficioso, no se puede poner en funcionamiento una IA laboral que, sin
duda, atentará contra los derechos de las personas trabajadoras. En definitiva:
la futura Ley de Inteligencia Laboral envía un mensaje de máximo respeto y
protección a los derechos fundamentales de las personas trabajadores; por
encima de cualquier posible “beneficio productivo”.
En segundo
término, hay que acercarse a la valoración, también positiva, pero subrayando
algunos contenidos que cabría modificar, efectuada por el responsable del grupo
italiano de la Alianza Progresista de Socialistas y Demócratas en el Parlamento
Europeo, Brando Benifei, en su artículo “Artificial intelligence ans social rights. An inicial
assessment” , que califica la
propuesta como “la primera de este tipo en el mundo” y “es una base excelente
para dar forma a un ámbito que abre enormes oportunidades”; pero al mismo
tiempo manifiesta su preocupación porque el texto “abre la puerta a los abusos
y a la interpretación amplia por parte de algunos Estados miembros, así como de
regímenes antiliberales de todo el mundo, (que) aún no está cerrada del todo. Y con el telón
de fondo de una tecnología que puede ser muy invasiva para los derechos de los
trabajadores, sigue siendo necesaria una mejor protección”. Y refiriéndose
concretamente a la evaluación a realizar cuando la tecnología se aplique en las
relaciones de trabajo, expone que “ … Según el artículo 43, en el que se
detallan los procedimientos de evaluación de la conformidad a seguir, ésta y
otras aplicaciones sensibles pueden someterse a una evaluación de la
conformidad interna (o autoevaluación) en lugar de una de terceros. Regular de
forma tan laxa una práctica tan invasiva para los derechos de los trabajadores
puede ser muy peligroso, más aún si tenemos en cuenta que estas normas se
aplicarán a todos los desarrolladores de IA que se dirijan al mercado de la UE,
incluidas las entidades extracomunitarias, que podrían no compartir
necesariamente nuestros valores”.
Mayores críticas se formulan, en la misma línea, por
los profesores Valerio de Stefano y Simón Taes en su artículo “Management algorithmique et negotiation collective. Para los
autores, la propuesta de Reglamento subestima “ los riesgos de la vigilancia
invasiva del trabajo o las prácticas discriminatorias que se derivan de los
sistemas de gestión algorítmica y de la IA, o que están incorporados en ellos”,
así como también que se olvide de, “papel esencial de la reglamentación y los
interlocutores sociales para mitigar estos riesgos”. Este es el caso, por
ejemplo, de la propuesta de Reglamento de la UE sobre Inteligencia Artificial
presentada recientemente por la Comisión Europea.
El Reglamento propuesto, afirman “parece dar por
sentado que si los sistemas de IA utilizados en el trabajo cumplen los
requisitos de procedimiento que establece, estos sistemas deberían estar
permitidos. Sin embargo, el uso de la IA para contratar, supervisar y evaluar
el "rendimiento y comportamiento laboral es muy problemático. Varias
legislaciones nacionales de la UE prohíben o limitan severamente el uso de
herramientas tecnológicas para controlar a los trabajadores”, y por ello, creen
que si se adopta esta Propuesta de
Reglamento “corre el riesgo de prevalecer sobre esta legislación más
restrictiva y desencadenar una avalancha de desregulación en los sistemas de de
desregulación en los sistemas de trabajo y relaciones laborales en toda Europa.
Esto es aún más grave porque estas legislaciones nacionales suelen exigir la
participación de los sindicatos antes de introducir cualquier forma de
vigilancia tecnológica, mientras que el Mientras que el proyecto de Reglamento
no menciona ni una sola vez a los interlocutores sociales ni su papel en la
regulación de los sistemas de IA. su papel en la regulación de los sistemas de
IA”. En suma alertan de que si no se corrige esta propuesta, “las legislaciones
nacionales más protectoras pueden verse superadas por este instrumento de la
UE: el Reglamento, en otras palabras, corre el riesgo de funcionar como un
"techo" en lugar de un de la protección laboral”.
6. Por fin,
llegamos a la más reciente Resolución adoptada por el PE, en concreto el 19 de mayo de 2021, que versa sobre sobre la
inteligencia artificial en los sectores educativo, cultural y audiovisual, https://www.europarl.europa.eu/doceo/document/TA-9-2021-0238_ES.html y que incluye propuestas y recomendaciones
generales que son de aplicación también a todos los sectores y ámbitos de
actividad, y por ello me parece conveniente reproducirlas dado que afectan a la
vida laboral.
“1. Subraya la
importancia estratégica de la IA y las tecnologías conexas para la Unión;
destaca que el enfoque de la IA y sus tecnologías conexas deben estar centrados
en el ser humano y fundamentados en los derechos humanos y la ética, de modo
que la IA sea realmente un instrumento al servicio de las personas, el bien
común y el interés general de los ciudadanos;…
..
5. Reitera la
importancia de desarrollar la IA y las tecnologías conexas para su utilización
en el aprendizaje profundo de calidad, compatibles e inclusivas que respeten y
defiendan los valores de la Unión, sobre todo la igualdad de género, el
multilingüismo y las condiciones necesarias para el diálogo intercultural, dado
que el uso de datos de baja calidad, obsoletos, incompletos o incorrectos puede
dar lugar a predicciones deficientes y, a su vez, a discriminación y sesgo;
destaca que es fundamental desarrollar capacidades tanto a escala nacional como
de la Unión para mejorar la recopilación, la seguridad, la sistematización y la
transferibilidad de los datos, sin afectar a la privacidad; toma nota de la
propuesta de la Comisión de crear un espacio único europeo de datos;
6. Recuerda que la IA puede dar
lugar a prejuicios y, por consiguiente, a diversas formas de discriminación por
razón de sexo, raza, color, origen étnico o social, características genéticas,
lengua, religión o convicciones, opinión política o de otra índole, pertenencia
a una minoría nacional, patrimonio, nacimiento, discapacidad, edad u
orientación sexual; recuerda, en este sentido, que deben garantizarse los
derechos de todas las personas y que la IA y las tecnologías conexas no deben
ser discriminatorias en modo alguno;
7. Destaca que dichos prejuicios y
discriminaciones pueden derivarse de conjuntos de datos ya sesgados que
reflejan la discriminación ya existente en la sociedad; recuerda, en este
contexto, que es esencial que participen las partes interesadas pertinentes,
incluida la sociedad civil, a fin de evitar que se incluyan inadvertidamente
prejuicios de género, sociales y culturales en los algoritmos, sistemas y
aplicaciones de la IA; subraya la necesidad de buscar la forma más eficaz de
reducir los sesgos en los sistemas de IA con arreglo a normas éticas y no
discriminatorias; subraya que los conjuntos de datos utilizados para entrenar
la IA deben ser lo más amplios posible con objeto de representar a la sociedad
de la manera mejor y más relevante, que es preciso revisar los resultados para
evitar todo tipo de estereotipos, discriminaciones y sesgos y que, cuando
proceda, debe utilizarse la IA para detectar y rectificar el sesgo humano que
pueda existir; insta a la Comisión a que promueva y facilite la puesta en común
de estrategias en materia de eliminación de sesgos para los datos;
10. Subraya que es necesario formar
a los trabajadores y educadores que se ocupan de cuestiones relativas a la IA
con el fin de promover la capacidad de detectar y corregir prácticas
discriminatorias por razón de género en el lugar de trabajo y en el ámbito
docente, así como a los trabajadores encargados de desarrollar los sistemas y
aplicaciones de IA para que puedan detectar y corregir problemas de
discriminación basada en el género en los sistemas y aplicaciones de IA que
desarrollen; pide que se establezcan responsabilidades claras en las empresas y
en los centros docentes para velar por que no se den situaciones de
discriminación por motivos de género en los lugares de trabajo y en los centros
docentes; subraya que, para fines educativos y culturales, han de usarse
imágenes de robots y relacionadas con la IA sin género, a menos que sea
importante especificar el género por alguna razón”.
III. Reflexiones
generales sobre el impacto de la transformación digital en las relaciones de
trabajo.
1. Podemos partir
de la existencia de mitos, verdades y fake news de la digitalización. De la potenciación del individualismo en las
relaciones de trabajo y la pérdida, o cuando menos disminución, del componente
colectivo, con lo que ello implica de dificultades para la acción colectiva.
También, de que, la tecnología no es neutra y que los algoritmos pueden tener diversos
y variados sesgos discriminatorios, por lo que su conocimiento, y negociación
en vía laboral en todo aquello que afecte a las condiciones de trabajo, deviene
del todo punto necesario.
También me parece
conveniente apuntar que la preocupación por la “revolución tecnológica” y su
incidencia sobre la vida laboral aparece recogida en documentos políticos.
Sirva como ejemplo directo las consideraciones efectuadas en la Ponencia marco del
40 Congreso del PSOE
que tendrá lugar de 15 a 17 de octubre. En el bloque dedicado a “Por el pleno
empleo de calidad y los salarios dignos”, encontramos esta reflexión con la que
coincido sustancialmente:
“… La revolución
digital incorpora nuevos desafíos al mundo del trabajo. Si atendemos a lo
ocurrido en otras revoluciones tecnológicas, a largo plazo, este proceso
permitirá una reasignación de las actividades humanas y el desarrollo de nuevas
necesidades lo que, unido al envejecimiento de la población en las próximas
décadas, no conducirá a incrementar los niveles de desempleo crónicos de manera
permanente. Sin embargo, a corto plazo, la revolución digital puede genera
problemas -aumentos temporales del desempleo, desajustes formativos, etc.- que
exigen una respuesta acertada desde el socialismo y que pasa por una
participación activa desde los poderes públicos, transformando la política
económica y el marco de relaciones laborales hacia una distribución del poder
menos desigual que la actual. La apuesta socialista pasa por aprender a regular
los poderes económicos que actúan en la digitalización para que no sean
generadores de nuevas desigualdades, exigen un gobierno democrático de la
revolución digital para conseguir que esta sea ‘liberadora’ y no
‘esclavizadora’ y generadora de más desigualdad”.
A mi parecer, la
tecnología no es la causante de la precariedad, sino que son las decisiones que
adoptan los humanos sobre su utilización la que puede afectar de una forma u
otras a las relaciones de trabajo en términos de mayor autonomía y poder
decisional de la persona trabajadora a la hora de prestar sus servicios, o bien
de restringir extraordinariamente su ámbito y facultades de actuación. Hay que
seguir reivindicando el cumplimiento de la normativa laboral y de Seguridad
Social. Dicho cumplimiento, no es a mi entender nada más ni nada menos que un
signo de modernidad, porque no hay nada más moderno que conseguir que todas las
personas, en su gran mayoría trabajadoras, tengan derechos, y entre ellos el de
un trabajo digno y decente.
2. Sobre el
impacto de la tecnología en las relaciones de trabajo desde la perspectiva
empresarial es de interés el “I
Informe sobre flexibilidad y competitividad empresarial” que ha sido realizado conjuntamente por The Adecco Group Iinstitute y Cuatrecasas
Instituto de Estrategia Legal en RRHH. 2021.
En dicho informe hay
un apartado dedicado a “Flexibilidad y tecnología”, en el que se destaca que la
mayor implantación de tecnologías clásicas (mecanización, documentación en
soporte digital, etc.) “se da en la gestión de horas de trabajo y contratos
temporales (7,2 y 6,8 sobre 10), y la menor en la gestión del teletrabajo
(productividades, tiempo de trabajo) y de proveedores externos” (5,8).
Respecto a la
implantación de nuevas tecnologías (inteligencia artificial, blockchain, big
data, IoT, reconocimiento facial, geolocalización, etc.) “mayoritariamente
afecta a la gestión de horas de trabajo, teletrabajo y contratos temporales
(4.9 y 4.2, respectivamente, sobre 10), mientras que la menor se da “en la
gestión del sistema retributivo y de proveedores externos (4,6 y 4,2 sobre 10).
3. Queremos
cambiar el presente. Pero, si tanto hemos cambiado y hemos mejorado en poco
menos de dos siglos, me preguntarán por qué hemos de cambiar el presente. Pues
porque el mundo del trabajo es extraordinariamente dinámico y mucho más desde
que la introducción de la tecnología (no utilizo la expresión “nuevas
tecnologías” porque esta hace sonreír, y con razón, a las y los jóvenes nativos
digitales) ha posibilitado cambios extraordinarios en las relaciones entre el
tiempo, el lugar y la prestación de trabajo. Si para muestra vale un botón,
fijémonos en los numerosos congresos y reuniones que se celebran bajo el título
de cambiar, pensar o repensar el mundo del trabajo, en los que se debate,
discute y analiza el entorno productivo, la capacitación y aptitudes
profesionales, el talento necesario para llevar a buen puerto un proyecto, o la
adaptación de las condiciones de trabajo a una cada vez mayor diversidad en el
seno de la población trabajadora,
Nos
preguntamos cómo unir el pasado y el presente, y al mismo tiempo mirar y hacer
propuestas para el inmediato futuro. Nos
preguntamos qué ha cambiado en la vida laboral para que pueda cuestionarse el
concepto de sujeto trabajador y de empleador, y cómo se han
modificado/reinterpretado/evolucionado/ los presupuestos substantivos de la
relación jurídica laboral.
Preguntas,
en definitiva, que giran alrededor del futuro del trabajo, en un debate que
debe realizarse tomando en consideración los desafíos a los que se enfrenta el
Derecho del Trabajo, sintetizados
por el profesor Wolfgang Daubler, refiriéndose a Alemania pero siendo perfectamente
extrapolable su reflexión a otros países, en tres aspectos: globalización (“los mercados de productos y
de inversiones son cada vez más abiertos y las últimas barreras al comercio
internacional están desapareciendo”); la desigualdad, existente tanto entre los
trabajadores (temporales, a tiempo parcial, con contratos de cero horas,
autónomos (falsos o involuntarios) como en la sociedad; la creciente
digitalización del trabajo, que “pone en cauda la separación entre el lugar de
trabajo y la vida privada” (¿cómo calcular la jornada de trabajo? ¿qué derechos
hay que reconocer a los “clientes”, “usuarios”, “trabajadores de las
plataformas?)
4. Las
virtudes y defectos, las aportaciones positivas, y negativas de la tecnología,
o más exactamente de su uso, han sido recientemente puestas sobre la mesa
(ahora sería más correcto decir sobre el ordenador o la tablet o el smartphone)
por un prestigioso científico, Martín Rees, que fuera Master del Trinity
College, Cambridge (2004-2012) y presidente de la Real Sociedad de Londres
(2005-2010). El hilo conductor de su libro “En el
futuro.Perspectivas para la humanidad” (Ed. Crítica 2019) es que la prosperidad
de la población del mundo, que va en aumento, “depende de la sabiduría con que
se haga uso de la ciencia y la tecnología”.
Son especialmente
interesantes tres ideas plasmadas en la publicación y que, siendo de carácter
general, creo que son perfectamente aplicables al mundo del trabajo: la
primera, que en una época en la que todos estamos interconectados, “cuando los
desfavorecidos son conscientes de sus apuros y cuando la migración es fácil,
cuesta ser optimista acerca de un mundo
pacífico un abismo, tan profundo como lo es en la geopolítica de hoy en día,
entre los niveles de bienestar y las oportunidades de la vida en regiones
diferentes”; la segunda, que al considerar como será el futuro dentro de
algunas décadas, “hemos de mantener nuestra mente abierta, o al menos
entreabierta, a avances transformadores que hoy pueden parecer ciencia
ficción”; por fin, la tercera, de especial interés para el mundo jurídico, es
que “las normativas pueden ayudar. Pero las normativas no ganarán terreno a
menos que cambie la manera de pensar de la sociedad”.
5. Muy sugerente
igualmente es la reflexión de Jonathan Everett, head of policy at the Royal
Statistical Society, en un reciente artículo “From A-Level to
pensions, algorithms make easy targets – but they aren’t to blame” , del que reproduzco
este fragmento que recuerda que los algoritmos (dicho sea incidentalmente, el
reciente conflicto acaecido por el cambio de algoritmos de Glovo así lo
demuestra) son “producto de decisiones humanas: “El uso de las estadísticas
para informar sobre la política se basa en la confianza del público. Cuando
ésta empieza a desvanecerse, es muy difícil restablecerla. Los estadísticos
tienen un papel que desempeñar al explicar los límites e incertidumbres
inherentes a los algoritmos y modelos. Y en las administraciones públicas cada
vez hay más estadísticos que asumen posiciones de liderazgo y ayudan a
configurar la agenda política. Pero este no puede ser el único trabajo de los
estadísticos: necesitamos que los ministros y otros políticos traten a los
algoritmos como productos de decisiones humanas y no como fuentes fáciles de
culpa cuando las cosas van mal. Así que, cuando se utilicen algoritmos y el
resultado sea indeseable, tengamos cuidado de echar la culpa a quien
corresponde: al rey y no al asesor”.
6. En una línea
semejante, el profesor José Ignacio Latorre, catedrático de física teórica de
la Universidad de Barcelona expone en su libro “Ética para
máquinas”
(Ed. Ariel, 2019) una idea central,
concretada en la introducción y desarrollada exhaustivamente en las 312
páginas: se trata, nos dice, “de una invitación a la reflexión sin prejuicios
sobre máquinas inteligentes que necesariamente han de ser éticas si hemos de
cohabitar con ellas”, y añade que “no podemos reducir todo a intereses
puramente comerciales dejados en manos de grandes corporaciones. El debate
ético sobre el control del genoma humano debe ser extendido inmediatamente al
de la inteligencia artificial. ¿Qué decisiones programaremos en el código
fuente de máquinas ultrapotentes y ultraconectadas? ¿Qué responsabilidades se
derivan del posible error de un algoritmo mal programado o insuficientemente
elaborado?”
7. La tecnología bien
utilizada es sin duda un gran beneficio para toda la sociedad, pero en manos de unas pocas corporaciones
transnacionales puede llegar a devolver a gran parte de la ciudadanía a un
modelo de sociedad que se diferencia poco del siglo XIX por lo que respecta a
la condiciones de desigualdad. Así lo explica, y fundamenta, de manera
brillante y exhaustiva la profesora emérita de la Universidad de Harvard
Shoshana Zuboff en su libro “La era del
capitalismo de la vigilancia”, (ed. Paidos, 2020), con el
significativo título de “La lucha por un futuro humano frente a las nuevas
fronteras del poder” .Me quedo ahora con
una frase muy gráfica con la que profesora Zuboff explica las desigualdades
existentes: “Ahora disponemos de las herramientas para captar bien la
destructiva complejidad de la colisión a la que aquí me estoy refiriendo: lo
que nos resulta insoportable es que las desigualdades económicas y sociales han
vuelto a las antiguas pautas feudales preindustriales, pero nosotros, las
personal, no”, y que “… nos sabemos merecedores de una dignidad y de la
oportunidad de vivir una vida eficaz”.
8. También ha
dedicado especial atención al impacto tecnológico en nuestras vidas uno de los
intelectuales más reconocidos de nuestro tiempo, Yuval Nohah Harari, en
especial en el último libro de su trilogía, que lleva por título “21 lecciones para el siglo XXI”. Ed. Debate 2019.
Con un cierto
“tremendismo intelectual a mi parecer, afirma que “en las décadas que vienen,
debido a una combinación de disrupción tecnológica y colapso ecológico, la
generación más joven podrá sentirse afortunada si al menos consigue subsistir”.
Considera una locura “la idea de bloquear la automatización en campos tales
como el transporte y la atención sanitaria con el único fin de salvaguardar los
empleos humanos. Después de todo, lo que deberíamos proteger en último término
es a los humanos, no los puestos de trabajo”, y concluye, aquí me parece con un
mayor acercamiento a la realidad, aunque tampoco exento de alguna exageración,
que “ningún trabajo humano que quede estará jamás a salvo de la automatización
futura, porque el aprendizaje automático y la robótica continuarán mejorando”. El
propio autor reconoce que cuando estaba escribiendo el libro, a principios de
2018, estaba especulando sobre el impacto tecnológico, ya que “la
automatización ha perturbado muchas industrias, pero no ha desembocado en un
desempleo masivo”. Sí coincido plenamente con sus tesis de la necesaria alerta sobre
el impacto en el crecimiento de la desigualdad de los algoritmos de macrodatos,
que podrían concentrar “toda la riqueza y el poder en mano de una élite minúscula,
mientras que la mayoría de la gente sufriría no la explotación, sino algo mucho
peor: la irrelevancia”, y de la necesidad y responsabilidad de todos de “dedicar
tiempo y esfuerzo a descubrir nuestros prejuicios y a verificar nuestras
fuentes de información”.
9. El futuro del
trabajo, o más exactamente de los trabajos, ha sido objeto de atención
monográfica, con varios artículos de indudable interés, en el núm. 118 (abril)
2021 de la Revista Metrópolis Barcelona. https://www.barcelona.cat/metropolis/ca/tematica/treball
Desde la perspectiva más laboral, en la
presentación de la revista, su directora Milagros Oliva subraya, como harán
también destacados miembros de la comunidad jurídica laboralista a los que más
adelante me referiré, que “La revolución digital, la robótica y la inteligencia
artificial están cambiando la forma de trabajar. La crisis que sufre el mundo
laboral sólo es el preludio de los grandes cambios que vendrán…. … El mundo
laboral se encuentra en plena metamorfosis. La inteligencia artificial y la
robótica están en condiciones de asumir buena parte de las tareas repetitivas y
pesadas que hacen los humanos. Las tecnologías digitales destruirán muchos
puestos de trabajo, pero, como ha ocurrido en otras revoluciones, también se
crearán nuevos. No sabemos aún cuál será el balance final, pero sí sabemos que
estamos a las puertas de un nuevo ecosistema laboral y que el gran reto es
repartir el trabajo y la riqueza de manera que se pueda garantizar una vida
digna para todos”.
10. Las profesoras Judith Clifton, Amy Glasmeier, y Mia Gray abordan la
relación entre la tecnología y el trabajo en su artículo “When machines think
for us:the consequences for work and place”
En su estudio ponen de manifiesto que “La IA tiene el potencial de
transformar la demanda de mano de obra, la naturaleza del trabajo y la
infraestructura operativa resolviendo problemas complejos con gran eficiencia y
rapidez. Sin embargo, a pesar de los cientos de informes y estudios, la IA
sigue siendo un enigma, una tecnología de reciente aparición, y su ritmo de
adopción y sus repercusiones en la estructura del trabajo sólo están empezando
a comprenderse. La actual ansiedad por el desplazamiento de la mano de obra
anticipa el crecimiento y el uso directo de la IA. Sin embargo, en muchos
sentidos, es probable que en la actualidad la IA esté siendo sobreestimada en
cuanto a su impacto. No obstante, un número cada vez mayor de investigaciones
sostiene que las consecuencias para el trabajo serán muy desiguales y dependerán
de una serie de factores, como el lugar, la actividad económica, la cultura
empresarial, los niveles de educación y el género, entre otros”.
Y concluyen que “No hay nada predefinido sobre cómo se desplegará la IA.
Las consecuencias de la aplicación de estas tecnologías reflejarán las
decisiones adoptadas a nivel organizativo, político y social. El futuro de la
IA es demasiado importante para dejarlo en manos de los especialistas en
tecnología. Los científicos sociales, los abogados de la tecnología y los
expertos en la ética de la tecnología deben participar activamente en la
configuración y estructuración de su desarrollo y adoptar”.
11. En clave política se encuentran las reflexiones de Lars Klingbeil,
desde 2017 secretario general del Partido Socialdemócrata de Alemania, y de
Henning Meyer un científico social y miembro de la Comisión de Valores Básicos
del SPD, en el artículo “Robots won’t make us redundant by”
Los autores recuerdan que “La socialdemocracia surgió del movimiento obrero
en el siglo XIX. El trabajo siempre ha sido el punto central de la política
socialdemócrata. Sin embargo, en los últimos años, el papel del trabajo se ha
discutido cada vez más estrecha y defensivamente. Ya sea en los debates sobre
la digitalización o antes sobre la globalización, el trabajo siempre ha
aparecido bajo presión. Deberíamos llevar esta discusión en una dirección
diferente”. También, que “Los pronósticos de cuántos empleos se perderán en el
futuro varían mucho. La respuesta honesta es que nadie sabe exactamente cómo
funcionará la digitalización. Sin embargo, todos los expertos están de acuerdo
en que el trabajo del futuro se alejará de la rutina y se dirigirá hacia una mayor
creatividad. En consecuencia, a través de este cambio el potencial de
transformación social del trabajo crece en lugar de disminuir. Esto abre nuevas
oportunidades”.
Y llevando el debate a la realidad alemana, pero sin duda trasladable a
otros países desarrollados, se afirma que “En estos días en Alemania, la
política industrial está finalmente siendo discutida de nuevo. Esta discusión
es necesaria desde hace mucho tiempo. El papel del estado en la economía fue
durante mucho tiempo interpretado de forma demasiado defensiva. No debe ser el
papel del estado simplemente para corregir los fallos del mercado. Se trata más
bien de crear los propios mercados y dar forma política al proceso económico.
Nuestra sociedad no debe subordinarse a la economía, sino que la economía debe
adaptarse a los ideales de nuestra sociedad… Esto también se aplica
al área de la digitalización. La política de datos y el desarrollo de la
inteligencia artificial serán decisivos para el empleo y el crecimiento. La
carrera mundial se ha abierto hace tiempo. Para nosotros, no puede ser una
cuestión de si, sino sólo de cómo. El Estado debe ponerse al frente y presionar
agresivamente para que la inteligencia artificial se introduzca en la economía,
la ciencia y la política”.
12. La profesora Sonja Bekker aborda, en el artículo “Digital welfare states: boundaries and opportunities” la problemática de los
límites del control de la ciudadanía, en la que obviamente están incluidas
todas las personas trabajadoras, por parte de los poderes públicos, con el
examen de una muy interesante sentencia de un tribunal neerlandés. Aquí tenemos
un amplio fragmento:
“… El primer caso judicial en el que se utilizaron los derechos humanos
para evaluar las nuevas tecnologías en los estados de bienestar digitales se
centró en la Indicación de Riesgo del Sistema Holandés (SyRI). La demanda de
SyRI fue presentada contra el estado holandés por una coalición de
organizaciones no gubernamentales, apoyada por el entonces relator especial de
la ONU sobre la extrema pobreza y los derechos humanos, Philip Alston, que
escribió un informe amicus curiae para el tribunal.
SyRI se estableció para detectar el fraude en materia de asistencia social,
recopilando no menos de 17 categorías de datos personales reunidos por
diferentes organismos públicos. Entre ellos figuraba información sobre empleo,
detención, sanciones, finanzas, educación, pensiones, subsidios para el cuidado
de los niños, recepción de prestaciones y seguro médico. La SyRI se ha
utilizado de manera recurrente, especialmente en los barrios con personas más
pobres y vulnerables. Ha analizado los datos utilizando un algoritmo con indicadores
de riesgo, seleccionando así a los reclamantes potencialmente fraudulentos. El
algoritmo y sus indicadores se mantuvieron en secreto por temor a que los
ciudadanos comenzaran a "jugar con el sistema".
El tribunal dictaminó que el SyRI violaba importantes
derechos humanos y que por lo tanto se debía poner fin inmediatamente. Para las
Naciones Unidas, se trataba nada menos que de una sentencia histórica, al
detener por primera vez, por motivos de derechos humanos, el uso de las
tecnologías digitales y el abundante procesamiento de la información por parte
de las autoridades de bienestar social. Sienta un importante precedente
jurídico y podría inspirar a las ONG de todo el mundo para que influyan en el
debate público o incluso para que ellas mismas acudan a los tribunales.
La falta de transparencia de la SyRI sobre su funcionamiento impidió que se
examinara si existía ese equilibrio. Incluso podía dar lugar a juicios injustos
que implicaran distinciones discriminatorias entre las personas, por ejemplo,
basadas en la situación socioeconómica o la condición de migrante. Ello podría
tener graves consecuencias negativas, no sólo para las personas afectadas sino
también para la sociedad en general. No sólo los defraudadores se veían
atrapados en un gran procesamiento de datos sino que, en el caso de SyRI, todas
las personas que vivían en un determinado barrio y cualquiera
"marcado" como potencialmente ilegítimo.
13. La profesora Elena Esposito reflexiona sobre las posibilidades que
ofrece la tecnología a los seres humanos en su artículo “Machine learning should increase human possibilities”.
A su parecer, “Los algoritmos pueden procesar incomparablemente más datos y
realizar ciertas tareas con mayor precisión y fiabilidad que los seres humanos.
Esta es una gran ventaja que debemos tener en cuenta también cuando destacamos
sus límites, que están ahí y son fundamentales. La más obvia es la tendencia de
los algoritmos, que aprenden de los datos disponibles, a predecir el futuro
proyectando hacia adelante las estructuras del presente, incluyendo sesgos y
desequilibrios.
Esto también produce problemas como el overfitting, que surge cuando el
sistema se adapta demasiado a los ejemplos del pasado y pierde la capacidad de
captar la variedad empírica del mundo. Por ejemplo, aprendió tan bien a
interactuar con los usuarios diestros con los que se ha entrenado que no
reconoce a una persona zurda como posible usuario.
Los algoritmos también sufren una ceguera específica, especialmente en lo
que respecta a la circularidad con la que las predicciones afectan al futuro
que se pretende predecir. En muchos casos el futuro predicho por los modelos no
se produce, no porque sean erróneos sino precisamente porque son correctos y se
siguen”.
Y con respecto al uso desviado de la tecnología en clave política afirma
que “Los peligros políticos están ahí, pero no están determinados directamente
por la tecnología. Las posibilidades que ofrecen los algoritmos pueden conducir
a resultados y riesgos políticos muy diferentes: desde la exageración sobre la
personalización que promete desplegar la autonomía de los usuarios individuales
hasta el sistema chino de "crédito social", que va en la dirección
opuesta”.
No hay comentarios:
Publicar un comentario