1. El pasado día 12 de febrero estaba prevista la celebración de la Jornada organizada por ESADE Forum el 12 de octubre. sobre el impacto de la inteligencia artificial y la gestión algorítmica en las relaciones de trabajo.
El intenso temporalde viento que hubo dicho día en buena parte de Cataluña, y con especial afectación
a Barcelona y poblaciones cercanas provocó la suspensión de todas las actividades en centros educativos, y por
consiguiente la de la citada Jornada.
La fijación de una
nueva fecha, el próximo día 27, para dicho acto , en el que tengo previsto intervenir en su clausura, me ha animado a compartir
con los lectores y lectoras del blog nuevos documentos, tanto legales como
doctrinales, que se han publicado recientemente y que no había tenido
oportunidad de conocer ni de leer (al menos, sus resúmenes ejecutivos) sobre la
temática que se será objeto de examen y análisis el día 27 por destacados y
destacadas miembros de la comunidad jurídica laboralista y de profesiones de otros
ámbitos del conocimiento.
Soy consciente de
que es imposible, al menos para un “humano”, estar al corriente de toda la
normativa y documentación que surge alrededor de la IA, si bien al mismo tiempo
me parece útil referenciar aquellos textos que considero de interés, y que,
repito, he tenido oportunidad de conocer, para poder continuar el debate sobre el
impacto de aquella en las relaciones de trabajo, y plantearse, así lo creo, cómo
pueden la maquina y el ser humano complementarse para un mejor desarrollo de
las habilidades, experiencias y conocimientos por parte de las personas
trabajadoras, por un parte, y para un incremento de la productividad
empresarial en términos que pueda repercutir de forma equilibrada entre todas y
todos los miembros de la comunidad empresarial, tanto accionistas como
directivas y personas trabajadoras.
Aquí les dejo,
pues, algunas referencias de interés y unos breves apuntes del contenido de
cada una de ellas. Para el período anterior, remito a la entrada “Sobre
tecnología, inteligencia artificial y gestión algorítmica. Impacto en el mundo
del trabajo. Presentación, y ordenación y recopilación de artículos publicados
en el blog (2020-2026)”
A) Acuerdo de la
Mesa del Senado de 16 de febrero, por el que se aprueban las directrices de uso
de la Inteligencia Artificial en el Senado
(24 de febrero)
Preámbulo
“La inteligencia artificial (en
adelante, IA) es una tecnología de uso general que está transformando todos los
ámbitos de la sociedad. En este contexto, tiene sentido que el Senado utilice
el potencial transformador de la IA para mejorar la eficiencia y calidad de sus
funciones de representación ciudadana, proyectadas, entre otras, en las
potestades legislativa y de control del Gobierno, así como de su organización administrativa;
y, por todo ello, en el fondo, para perfeccionar nuestras libertades en el
marco del Estado de Derecho, así como la calidad de nuestra democracia.
Se trata de una tecnología que
implica riesgos de diversa naturaleza: para los derechos y libertades, operativos,
de seguridad o institucionales, entre otros. Por ello, para ser plenamente
operativa y para acomodarse a las necesarias pautas éticas, esa utilización
debe ser responsable, confiable, legítima, respetuosa con la autonomía humana,
transparente y proporcionada a las necesidades de la Cámara.
Además, el uso de la IA ha de
respetar las normas jurídicas vigentes en nuestro país, ante todo, el
Reglamento de inteligencia artificial 2024/1689 del Parlamento Europeo y del
Consejo, de 13 de junio de 2024 (en adelante RIA), como marco legal que regula
un desarrollo, comercialización y despliegue de sistemas de inteligencia
artificial basado en los derechos fundamentales, la seguridad y los valores democráticos,
y en la legislación nacional que lo complemente. Deberán también respetarse
otras diversas normas jurídicas, sobre las que la IA impacta, muy
especialmente, el Reglamento General de protección de datos 2016/679, del
Parlamento Europeo y del Consejo, de 27 de abril de 2016 (en adelante RGPD) y la
Ley orgánica 3/2018, de 5 de diciembre, de protección de datos personales y
garantía de los derechos digitales (en adelante, LOPDGDD).
El uso de la IA en el Senado,
además de incorporar en el ámbito de la Cámara, con las debidas adaptaciones,
la legislación aplicable en la materia debe acomodarse a ciertas pautas de
organización, en aras a la consecución de los objetivos mencionados.
El Senado, en uso de su autonomía
administrativa en su vertiente tecnológica, establece las presentes directrices
para el uso de la IA, que pretenden lograr estos objetivos éticos, jurídicos y
de organización. Esta normativa interna se justifica, además, en que la
irrupción de esta tecnología hace su utilización poco menos que inexorable por
las personas que desempeñan sus actividades de representación y administrativas
en esta Cámara.
Las presentes directrices se
orientan a garantizar que el Senado aproveche, en la mayor medida posible y
siempre salvaguardando los puestos de trabajo y los derechos del personal de la
Cámara, la IA para incrementar la eficiencia y calidad en el ejercicio de sus
funciones y, de este modo, asegurar el mejor servicio a la ciudadanía, a sus
libertades y a nuestra democracia, minimizando los riesgos que su utilización
conlleva....
2. Ámbito personal de aplicación
Las directrices de la IA se
aplicarán a senadores y senadoras en el ejercicio de sus funciones parlamentarias,
al personal funcionario y laboral del Senado, al personal funcionario de otras
Administraciones adscrito al Senado, al personal eventual de la Cámara, al
personal de los grupos parlamentarios, a las personas en periodos de formación
y a cualquier persona que trabaje para o bajo la supervisión y la dirección de
la Cámara.
37. Entrada en vigor
Estas directrices entrarán en vigor
transcurridos sesenta días desde su publicación en el Boletín Oficial de las
Cortes Generales.
38. Periodo transitorio
Transcurridos seis meses desde la
entrada en vigor de estas directrices, los sistemas de IA ya existentes en el
Senado deberán estar plenamente adaptados a las mismas”.
B) Anteproyecto deley orgánica de integridad pública (aprobado por el Consejo de Ministros el 17
de febrero)
TÍTULO III
Innovación tecnológica para
prevenir, identificar y actuar contra el fraude y la corrupción
CAPÍTULO I
Medidas generales
Artículo 20. Desarrollo y uso
generalizado de herramientas digitales en la prevención y lucha contra la
corrupción.
Todas las administraciones públicas
y entidades del sector público institucional impulsarán el uso generalizado de
herramientas, sistemas y metodologías digitales, incluida la inteligencia
artificial y algoritmos predictivos que avancen en la lucha contra la
corrupción y prevención del fraude, con el objetivo de garantizar la seguridad
jurídica, la trazabilidad, el control, la detección temprana de prácticas
irregulares, el aumento de la transparencia y de la eficiencia en la gestión de
los recursos de la Hacienda. En particular, se trabajará en la identificación
de patrones anómalos, detección de riesgos sistémicos, refuerzo de la
integridad y generación de alertas tempranas.
CAPÍTULO II
Medidas sectoriales
Artículo 22. Puesta a disposición
de las capacidades de la plataforma soberana de Inteligencia Artificial para la
lucha contra la corrupción y el fraude.
Se pondrá a disposición de la
Agencia Independiente de Integridad Pública, y de los demás sujetos
responsables en materia de prevención y lucha contra el fraude y la corrupción,
las capacidades de Plataforma soberana de inteligencia artificial, almacenamiento
y análisis masivo de información de la Agencia Estatal de Administración
Digital, con la finalidad de identificar patrones anómalos, detectar riesgos
sistémicos y generar alertas tempranas.
C) Sentencia de la Sala Social delTribunal Superior de Justicia de Canarias de 10 de febrero
“Impone
“una multa de 420 euros a un abogado como autor de una actuación contraria al
deber de veracidad y a las reglas de la buena fe con abuso del servicio público
de la Justicia, consumada al introducir hasta 48 citas de jurisprudencia
falsas, generadas por Inteligencia Artificial, en un recurso de apelación”.
“La
Sala enfatiza que no “desconoce ni desdeña” el potencial que las herramientas
de inteligencia artificial ofrecen para las profesiones jurídicas, pero
recuerda que el principio de supervisión humana es el “eje vertebrador de todas
las actuaciones profesionales que comporten el uso de estos sistemas en el
ámbito de la abogacía, debiendo el profesional entender la herramienta como
asistencial y nunca como decisoria, evitando una dependencia ciega del
sistema”.
D) Dictamen delComité Europeo de las Regiones: Plan de acción “Continente de IA” (24 de febrero)
"El CER
1. señala que a la Unión Europea y a sus
territorios se les presenta una oportunidad de abordar los profundos
desequilibrios locales y regionales en materia de innovación, tecnología,
infraestructuras y productividad, así como de revitalizar su potencial industrial
y manufacturero. En este contexto, los entes locales y regionales son los mejor
situados para impulsar la innovación y pueden servir como usuarios y
facilitadores de productos y servicios de IA para desempeñar un papel
protagonista en la configuración de esta nueva revolución industrial;
2. observa que los entes locales y
regionales son fundamentales para la adopción de la IA: al constituir el nivel
de gobernanza más cercano a la ciudadanía y ser proveedores de una amplia gama
de servicios, pueden ayudar a impulsar el desarrollo y la utilización
responsables de las tecnologías de IA en sectores clave como la asistencia
sanitaria, el transporte, la planificación urbana, la eficiencia energética, el
desarrollo rural, el medio ambiente y el clima, la agroalimentación, la
seguridad y la defensa, el sector aeroespacial, el emprendimiento, la educación
(incluidas las competencias en medios de comunicación, digitales y de IA) y la
cultura, y la administración pública;
3. reitera la necesidad de evitar
la «brecha de IA (1)» para que sea posible crear ecosistemas de IA locales,
regionales, transfronterizos y transnacionales en la UE, y subraya el papel
esencial de las medidas de sensibilización en el diseño de soluciones de IA,
así como en el entrenamiento y perfeccionamiento, la realización de pruebas y
la introducción de modelos de IA de la Unión;
Gestión de datos y modelos europeos
de IA
9. anima a las administraciones
públicas a llevar un registro de los datos que reúnan, como por ejemplo los
datos sobre sistemas de circulación por semáforos, recogida de residuos,
consumo de energía, y concesión de permisos y zonificación en materia de vivienda.
Los entes locales y regionales podrían colaborar e intercambiar mejores
prácticas sobre cómo identificar, almacenar, archivar y gestionar sus datos con
el fin de favorecer la interoperabilidad, las soluciones fiables, las
condiciones de reutilización y la propiedad de los datos y la interacción
transfronteriza entre las administraciones públicas a todos los niveles; de
hecho, pueden colaborar activamente en la fase de aplicación del Plan de Acción
«Continente de IA» y contribuir a la definición de modelos y metodologías de IA
de la Unión para el desarrollo regional y local;
10. reconoce la necesidad de
desarrollar algoritmos «más pequeños» a nivel subnacional, adaptados a los
retos específicos de las ciudades, las pymes o los grupos de ciudadanos, pero
subraya que es de suma importancia crear grandes modelos lingüísticos propiedad
de la Unión, basados en los datos europeos existentes, que respeten los valores
de la UE fundamentados en la democracia y los derechos humanos; a este
respecto, acoge con satisfacción la próxima estrategia de datos de la Unión
Europea, que facilitará a las empresas y otras partes interesadas el
cumplimiento de las normas en materia de datos y garantizará la protección
internacional de los datos europeos; tiene en cuenta la retirada de la
propuesta de Directiva sobre responsabilidad en materia de IA y subraya la
necesidad de encontrar un equilibrio adecuado a escala de la UE entre, por un
lado, las preocupaciones legítimas relativas a los riesgos de responsabilidad
civil, la rendición de cuentas digital y la protección de los consumidores y,
por otro, el fomento de la innovación y el diseño de normas que puedan
aplicarse de forma efectiva";
E) OCDE. Guía de la OCDE sobre la diligencia debida para una IA responsable (26 de enero)
"Esta guía tiene por objeto ayudar a
las empresas a aplicar las Directrices para las empresas multinacionales y los
Principios sobre la IA. Está destinada a servir de herramienta a las empresas
multinacionales que participan en la cadena de valor de los sistemas de IA.
El capítulo 2 expone el marco de
diligencia debida en materia de responsabilidad empresarial y social y ofrece
ejemplos prácticos de aplicación para las empresas que participan en el
desarrollo y el uso de sistemas de IA. El marco de diligencia debida presentado
en esta guía también incluye una hoja de ruta de las disposiciones relacionadas
en los marcos existentes al comienzo de cada paso, en la que se indica cómo
cada paso del marco de diligencia debida se complementa y se relaciona con las
disposiciones pertinentes de los marcos de gestión de riesgos de IA
relacionados.
En cada paso se incluyen «ejemplos
prácticos de aplicación» para ilustrar mejor las formas de aplicar y adaptar,
según sea necesario, las medidas de apoyo y el proceso de diligencia debida.
Los ejemplos prácticos se han seleccionado para adaptarse a este contexto y
también se basan en los principales marcos de gestión de riesgos de la IA, así
como en investigaciones documentales y consultas con expertos. Los ejemplos
prácticos no pretenden ser una lista de verificación exhaustiva. No todos los
ejemplos prácticos serán adecuados para todas las situaciones. Del mismo modo,
las empresas pueden encontrar útiles ejemplos adicionales o medidas de
aplicación en algunas situaciones.
Mediante la aplicación
significativa de las recomendaciones de los marcos existentes de gestión de
riesgos de la IA, incluidas las descritas en esta guía, las empresas pueden
cumplir muchas de las expectativas del enfoque de diligencia debida del RBC. En
algunos casos, el marco del RBC aporta mayor claridad y colma las lagunas de
otros marcos, especialmente en lo que respecta a la participación de las partes
interesadas y la reparación, aspectos que no se abordan de forma tan exhaustiva
en los marcos existentes".
F) Antón Costas (presidente del Consejo Económico y Social de España) Cómo frenar el pánico a la inteligencia artificial y orientarla al bien común (22 de febrero)
“¿Puede la IA reducir esta incertidumbre keynesiana sobre el futuro? Hay ensayos recientes que los sostienen, pero probablemente no será así. Los pronósticos de un “apocalipsis laboral” como consecuencia de la posible sustitución de cientos de miles o millones de trabajadores están sometidos a una elevada incertidumbre. Por no saber, ni conocemos qué tipo de trabajos y capacidades laborales se necesitarán dentro de sólo diez años. El impacto de la IA sobre el empleo y el crecimiento dependerá de cómo las empresas y las organizaciones orienten los usos de la IA, de si la utilizan para sustituir trabajadores por robots o para la mejora de las capacidades y la productividad de los trabajadores. La tecnología es una elección social, como sostienen los premios Nobel Daron Acemoglu y Simon Johson en su enciclopédica y sugestiva obra Poder y progreso. Nuestra lucha milenaria por la tecnología y la prosperidad”.
“Los hallazgos de esta versión 2026
suponen un nuevo ejercicio de desmitificación sobre el empleo TIC/STEM en
España. Ponen de relieve los obstáculos para alcanzar el hito fijado por
Europa, a la par que denuncia las exageraciones que acordonan a este sector;
desde la supuesta escasez de especialistas a quiméricos salarios, pasando por
las figuraciones de excelentes condiciones de trabajo (formación, teletrabajo)
y por las injustas críticas al sistema educativo. Un compendio de fábulas que
ni contribuye a lograr el objetivo europeo ni dignifica la profesión,
especialmente entre la juventud que elije esta especialidad y se da de bruces
con una realidad muy alejada de la narrativa.
... “el número de empresas de más de 10
empleados/as con expertos en IA en sus plantillas es de un ínfimo 2 % (en el
caso de la ciberseguridad, un aspecto crucial para la pervivencia de cualquier
empresa, ni se llega al 7 %)”.
H) Daron Acemoglu, David Autor, Simon Jhonson. “Construyendointeligencia artificial pro-trabajador” (febrero 2026)
“Este artículo define las
tecnologías pro-trabajador, incluyendo la Inteligencia Artificial, como
tecnologías que revalorizan las habilidades y la experiencia humanas al
expandir las capacidades de los trabajadores. Nuestro marco conceptual
distingue cinco categorías de cambio tecnológico: aumento de la mano de obra,
aumento del capital, automatización, nivelación de la experiencia y creación de
nuevas tareas. Solo esta última categoría es claramente pro-trabajador,
generando demanda de experiencia humana innovadora en lugar de mercantilizarla.
Ilustramos estas distinciones mediante ejemplos hipotéticos y reales que
abarcan el mantenimiento de aviación, los servicios eléctricos, el trabajo de
custodia, la educación, la tramitación de patentes y la prestación de servicios
a particulares. Si bien la capacidad de la IA para automatizar el trabajo es
sustancial, argumentamos que su potencial para servir como colaborador, al
ampliar el criterio humano, habilitar nuevas tareas y acelerar la adquisición
de habilidades, es igualmente transformador y actualmente está infraexplotado.
Identificamos fallas del mercado, incluyendo incentivos desalineados entre
empresas y desarrolladores, dependencia de la trayectoria y una ideología
generalizada pro-automatización, que pueden conducir a una inversión
insuficiente en IA pro-trabajador. Consideramos nueve direcciones políticas que
cambiarían los incentivos, incluidas inversiones específicas en atención médica
y educación, reforma del código tributario, aplicación de las leyes antimonopolio
y protecciones de la propiedad intelectual para la experiencia de los
trabajadores”.
“... La capacidad de la IA para
automatizar el trabajo y desplazar a los trabajadores es sustancial.
Simultáneamente, creemos que la IA tiene un potencial igualmente transformador
para actuar como multiplicador de fuerza para las habilidades y la experiencia humanas.
Este potencial surge de la capacidad de la IA para colaborar con los
trabajadores, permitiéndoles (a) realizar tareas más sofisticadas relacionadas
con sus trabajos, (b) abordar nuevas tareas y (c) adquirir nueva experiencia.
Esta capacidad de colaboración multimodal es lo que confiere a la IA su
potencia como tecnología para favorecer a los trabajadores”
“... La IA pro-trabajador no es una
tecnología fundamentalmente distinta. Más bien, es una visión distinta sobre
cómo utilizar las tecnologías existentes y emergentes. El objetivo de la IA
pro-trabajador —y de las tecnologías pro-trabajador en general— es permitir que
los trabajadores realicen tareas con mayor eficacia, aborden nuevas tareas y
dominen las nuevas competencias requeridas para nuevos trabajos.
“... La IA es y será
transformadora, una realidad ya evidente en muchos ámbitos. Por lo tanto, la
pregunta crucial no es si implementar la IA, sino cómo hacerlo de forma
inteligente.
¿Buscamos la máxima automatización
siempre que sea posible? ¿O desarrollamos sistemas de IA que aprendan de la
toma de decisiones humana, aumenten su criterio y trabajen junto a los
trabajadores para mejorar los resultados? La respuesta correcta, por supuesto,
es ambas. Lograr este equilibrio entre las capacidades es un desafío formidable
y en constante evolución. Desarrollar herramientas que aumenten el valor de las
habilidades y la experiencia humanas debería ser una estrategia principal para
responder a este desafío...”
I) Emily Bender, Alex Hanna. “La estafa de la
IA” (febrero de 2026)
“Sinopsis de La estafa de la IA
Un libro imprescindible para
desenmascarar las falsas promesas de la inteligencia artificial y entender cómo
las grandes tecnológicas convierten su hype en un negocio a costa de nuestras
vidas.
¿Va a acabar la inteligencia
artificial dominando el mundo? ¿Han creado los científicos una forma de vida
artificial capaz de pensar por sí misma? ¿Va a quedarse con nuestros puestos de
trabajo? ¿Estamos entrando en una era en la que los ordenadores son mejores que
los humanos?
Las doctoras Emily M. Bender y Alex
Hanna responden a todas estas preguntas con un rotundo «NO», con frases
sarcásticas como «Ya les gustaría» o simplemente riéndose. Estos temores no son
más que una consecuencia de la implacable promoción la IA por parte de las
empresas tecnológicas para justificar el robo de datos, motivar la creación de
herramientas de vigilancia en el puesto de trabajo y devaluar la creatividad
humana.
En La estafa de la IA encontraremos
ejemplos reales, argumentos claros y opiniones de expertos que nos
proporcionarán las herramientas para detectar el hype de la IA en todas y cada
una de sus manifestaciones. Ya que, al descubrir la explotación que hay detrás
de su implantación y la usurpación de poder que pretende ocultar, seremos
capaces de disipar el humo que nos intentan vender, tanto en el trabajo como en
nuestra vida cotidiana”.
Entrevista en ElPaís 21 de febrero
“Defienden que la IA general (IAG),
la que iguala o supera la humana, no solo no existe, sino que su búsqueda es
profundamente racista. ¿Por qué?
H. El origen de la búsqueda de la
IAG se basa en distintas pruebas que diferenciaban y clasificaban a las
personas según su inteligencia. El proyecto eugenésico de Reino Unido, por
ejemplo, consistió en clasificar a las personas con discapacidad por orden de
inteligencia. En EE UU ha habido experimentos para medir la inteligencia por
razas. Una vez que profundizamos en la teoría, entre comillas, en la que se
basan los experimentos que persiguen la IA general, vimos que al menos dos de
los autores eran conocidos eugenistas, y también tenían la tradición de hacer
este tipo de clasificación de inteligencia.
B. El primer paso de una buena
ingeniería consiste en establecer las especificaciones de lo que se va a
construir. Y la idea detrás de la IAG es que puede hacer todo lo que una
persona puede hacer, tan bien o mejor que ella. Pero no es posible evaluar qué
tan bueno es algo en todo. Hay muchos estudios que demuestran que todas esas
evaluaciones que se denominan IA versus seres humanos se configuran para
adaptarse a la forma en que funcionan los sistemas de IA. Me asaltan algunas
dudas: ¿para qué sirve la IAG? ¿Por qué se intenta construir? ¿Con qué
propósito?”.
Buena lectura.