1. El Diario
Oficial de la Unión Europea publico el viernes 12 de julio el Reglamento (UE)
2024/1869 del Parlamento Europeo y del Consejo de 13 de junio de 2024 “por el que se establecen normas
armonizadas en materia de inteligencia artificial y por el que se modifican los
Reglamentos (CE) n.o 300/2008, (UE) n.o 167/2013, (UE) n.o 168/2013, (UE)
2018/858, (UE) 2018/1139 y (UE) 2019/2144 y las Directivas 2014/90/UE, (UE)
2016/797 y (UE) 2020/1828 (Reglamento de Inteligencia Artificial)”.
Según dispone el
art. 113, entrará en vigor a los veinte días de su publicación en el DOUE y
será aplicable a partir del 2 de agosto de 2026, salvo las excepciones que se
referencian a continuación: “a) los capítulos I y II serán aplicables a partir
del 2 de febrero de 2025; b) el capítulo III, sección 4, el capítulo V, el
capítulo VII y el capítulo XII y el artículo 78 serán aplicables a partir del 2
de agosto de 2025, a excepción del artículo 101; c) el artículo 6, apartado 1,
y las obligaciones correspondientes del presente Reglamento serán aplicables a
partir del 2 de agosto de 2027”.
2. En anteriores
entradas del blog he ido dando cuenta de la (muy compleja) tramitación de la
propuesta de Reglamento, en concreto por lo que respecta a su contenido más
específicamente laboral, así como de las muchas publicaciones, documentos e
informes que han ido publicándose sobre la IA, en algunos casos de carácter
general y en muchos otros más concretamente sobre el mundo del trabajo.
Y desde luego, para un buen conocimiento de la afectación del Reglamento a las relaciones laborales, me parece obligado acudir a la lectura de los nueves artículos publicados por juristas que tienen presencia en la blogosfera laboralista, con ocasión de la iniciativa interbloguera impulsada por los profesores Miguel Rodríguez-Piñero Royo y Adrián Todolí, que están recogidos en la página web deIuslablog
3. Ahora, una vez ya publicado el Reglamento,
se trata simplemente por mi parte de reproducir en esta entrada, tras la
lectura de un texto que es ciertamente muy denso, complejo, y con idas y
venidas en su redacción, sin duda resultado del intenso proceso negociador
entre las instituciones hasta llegar a su aprobación definitiva, aquellos
contenidos de carácter laboral, en el bien entendido, no cabe sino reconocerlo
expresamente, que todo el texto es de interés para toda la comunidad jurídica
en general, y desde luego también para la laboralista en particular. Una buena
síntesis de este contenido ya ha sido realizada por la abogada y periodista
Estela Martín en el artículo https://www.economistjurist.es/articulos-juridicos-destacados/las-medidas-laborales-que-contempla-el-reglamento-de-inteligencia-artificial/
publicado el 14 de julio en el diario
jurídico electrónico Economist&Jurist “Las medidas laborales que contempla
el Reglamento de Inteligencia Artificial” .
Repárese solo, por
poner un claro ejemplo de la complejidad del texto, que tiene una parte
introductoria con 180 apartados, seguida de 113 artículos, y nada más ni nada
menos que 13 anexos, lo que supone un total de 144 páginas en formato pdf.
Por ello, pongo
ahora a disposición de los lectores y lectoras del blog, como he indicado,
aquellos apartados de la parte introductoria, artículos y anexos, que afectan a
las relaciones de trabajo, reiterando una vez más que todo el texto es de
extraordinaria importancia.
Buena
lectura.
PARTE
INTRODUCTORIA.
(1) El objetivo del presente Reglamento es
mejorar el funcionamiento del mercado interior mediante el establecimiento de
un marco jurídico uniforme, en particular para el desarrollo, la introducción
en el mercado, la puesta en servicio y la utilización de sistemas de
inteligencia artificial (en lo sucesivo, «sistemas de IA») en la Unión, de
conformidad con los valores de la Unión, a fin de promover la adopción de una
inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando
al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los
derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de
la Unión Europea (en lo sucesivo, «Carta»), incluidos la democracia, el Estado
de Derecho y la protección del medio ambiente, proteger frente a los efectos
perjudiciales de los sistemas de IA en la Unión, así como brindar apoyo a la
innovación. El presente Reglamento garantiza la libre circulación
transfronteriza de mercancías y servicios basados en la IA, con lo que impide
que los Estados miembros impongan restricciones al desarrollo, la
comercialización y la utilización de sistemas de IA, a menos que el presente
Reglamento lo autorice expresamente.
(2) El presente Reglamento debe aplicarse de
conformidad con los valores de la Unión consagrados en la Carta, lo que
facilitará la protección de las personas físicas, las empresas, la democracia,
el Estado de Derecho y la protección del medio ambiente y, al mismo tiempo,
impulsará la innovación y el empleo y convertirá a la Unión en líder en la
adopción de una IA fiable.
(6) Dadas
las importantes repercusiones que la IA puede tener en la sociedad y la
necesidad de generar confianza, es fundamental que la IA y su marco
reglamentario se desarrollen de conformidad con los valores de la Unión
consagrados en el artículo 2 del Tratado de la Unión Europea (TUE), los
derechos y libertades fundamentales consagrados en los Tratados y, de
conformidad con el artículo 6 del TUE, la Carta. Como requisito previo, la IA
debe ser una tecnología centrada en el ser humano. Además, debe ser una herramienta
para las personas y tener por objetivo último aumentar el bienestar humano.
(9) Deben establecerse normas armonizadas
aplicables a la introducción en el mercado, la puesta en servicio y la
utilización de sistemas de IA de alto riesgo en consonancia con el Reglamento
(CE) n.o 765/2008 del Parlamento Europeo y del Consejo (7), la Decisión n.o
768/2008/CE del Parlamento Europeo y del Consejo (8) y el Reglamento (UE)
2019/1020 del Parlamento Europeo y del Consejo (9) (en lo sucesivo, «nuevo
marco legislativo»). Las normas armonizadas que se establecen en el presente
Reglamento deben aplicarse en todos los sectores y, en consonancia con el nuevo
marco legislativo, deben entenderse sin perjuicio del Derecho vigente de la
Unión, en particular en materia de protección de datos, protección de los
consumidores, derechos fundamentales, empleo, protección de los trabajadores y
seguridad de los productos, al que complementa el presente Reglamento. En
consecuencia, permanecen inalterados y siguen siendo plenamente aplicables
todos los derechos y vías de recurso que el citado Derecho de la Unión otorga a
los consumidores y demás personas que puedan verse afectados negativamente por
los sistemas de IA, también en lo que respecta a la reparación de los posibles
daños de conformidad con la Directiva 85/374/CEE del Consejo (10). Además, en
el contexto del empleo y la protección de los trabajadores, el presente
Reglamento no debe afectar, por tanto, al Derecho de la Unión en materia de
política social ni al Derecho laboral nacional —de conformidad con el Derecho
de la Unión— relativa a las condiciones de empleo y de trabajo, incluidas la
salud y seguridad en el trabajo y la relación entre empleadores y trabajadores.
El presente Reglamento tampoco debe afectar en modo alguno al ejercicio de los
derechos fundamentales reconocidos en los Estados miembros y a escala de la
Unión, incluidos el derecho o la libertad de huelga o de emprender otras
acciones contempladas en los sistemas de relaciones laborales específicos de
los Estados miembros y el derecho a negociar, concluir y hacer cumplir
convenios colectivos o a llevar a cabo acciones colectivas conforme al Derecho
nacional. El presente Reglamento no debe afectar a las disposiciones destinadas
a mejorar las condiciones laborales en el trabajo en plataformas digitales
establecidas en una Directiva del Parlamento Europeo y del Consejo relativa a
la mejora de las condiciones laborales en el trabajo en plataformas digitales.
Además, el presente Reglamento tiene por objeto reforzar la eficacia de tales
derechos y vías de recurso vigentes mediante el establecimiento de requisitos y
obligaciones específicos, también en lo que respecta a la transparencia, la
documentación técnica y la conservación de registros de los sistemas de IA.
Asimismo, las obligaciones impuestas a los distintos operadores que participan
en la cadena de valor de la IA en virtud del presente Reglamento deben
aplicarse sin perjuicio del Derecho nacional que, de conformidad con el Derecho
de la Unión, tenga por efecto limitar el uso de determinados sistemas de IA
cuando dicho Derecho quede fuera del ámbito de aplicación del presente
Reglamento o persiga objetivos legítimos de interés público distintos de los
perseguidos por el presente Reglamento. Así, por ejemplo, el presente
Reglamento no debe afectar al Derecho laboral nacional ni al Derecho en materia
de protección de menores, a saber, de personas de menos de dieciocho años, que
tienen en cuenta la Observación general n.o 25 (2021) de la Convención sobre
los Derechos del Niño de las Naciones Unidas relativa a los derechos de los
niños en relación con el entorno digital, en la medida en que no son
específicas a los sistemas de IA y persiguen otros objetivos legítimos de
interés público.
(30) Deben prohibirse los sistemas de
categorización biométrica basados en datos biométricos de las personas físicas,
como la cara o las impresiones dactilares de una persona física, para deducir o
inferir las opiniones políticas, la afiliación sindical, las convicciones
religiosas o filosóficas, la raza, la vida sexual o la orientación sexual de
una persona física. Dicha prohibición no debe aplicarse al etiquetado, al
filtrado ni a la categorización lícitos de conjuntos de datos biométricos
adquiridos de conformidad con el Derecho nacional o de la Unión en función de
datos biométricos, como la clasificación de imágenes en función del color del
pelo o del color de ojos, que pueden utilizarse, por ejemplo, en el ámbito de
la garantía del cumplimiento del Derecho.
(44) Existe
una gran preocupación respecto a la base científica de los sistemas de IA que
procuran detectar o deducir las emociones, especialmente porque la expresión de
las emociones varía de forma considerable entre culturas y situaciones, e
incluso en una misma persona. Algunas de las deficiencias principales de estos
sistemas son la fiabilidad limitada, la falta de especificidad y la limitada
posibilidad de generalizar. Por consiguiente, los sistemas de IA que detectan o
deducen las emociones o las intenciones de las personas físicas a partir de sus
datos biométricos pueden tener resultados discriminatorios y pueden invadir los
derechos y las libertades de las personas afectadas. Teniendo en cuenta el
desequilibrio de poder en el contexto laboral o educativo, unido al carácter
intrusivo de estos sistemas, dichos sistemas podrían dar lugar a un trato
perjudicial o desfavorable de determinadas personas físicas o colectivos
enteros. Por tanto, debe prohibirse la introducción en el mercado, la puesta en
servicio y el uso de sistemas de IA destinados a ser utilizados para detectar
el estado emocional de las personas en situaciones relacionadas con el lugar de
trabajo y el ámbito educativo. Dicha prohibición no debe aplicarse a los
sistemas de IA introducidos en el mercado estrictamente con fines médicos o de
seguridad, como los sistemas destinados a un uso terapéutico.
(48) La
magnitud de las consecuencias adversas de un sistema de IA para los derechos
fundamentales protegidos por la Carta es especialmente importante a la hora de
clasificar un sistema de IA como de alto riesgo. Entre dichos derechos se
incluyen el derecho a la dignidad humana, el respeto de la vida privada y
familiar, la protección de datos de carácter personal, la libertad de expresión
y de información, la libertad de reunión y de asociación, el derecho a la no
discriminación, el derecho a la educación, la protección de los consumidores,
los derechos de los trabajadores, los derechos de las personas discapacitadas,
la igualdad entre hombres y mujeres, los derechos de propiedad intelectual, el
derecho a la tutela judicial efectiva y a un juez imparcial, los derechos de la
defensa y la presunción de inocencia, y el derecho a una buena administración.
Además de esos derechos, conviene poner de relieve el hecho de que los menores
poseen unos derechos específicos consagrados en el artículo 24 de la Carta y en
la Convención sobre los Derechos del Niño de las Naciones Unidas, que se
desarrollan con más detalle en la observación general n.o 25 de la Convención
sobre los Derechos del Niño de Naciones Unidas relativa a los derechos de los
niños en relación con el entorno digital. Ambos instrumentos exigen que se
tengan en consideración las vulnerabilidades de los menores y que se les brinde
la protección y la asistencia necesarias para su bienestar. Cuando se evalúe la
gravedad del perjuicio que puede ocasionar un sistema de IA, también en lo que
respecta a la salud y la seguridad de las personas, también se debe tener en
cuenta el derecho fundamental a un nivel elevado de protección del medio
ambiente consagrado en la Carta y aplicado en las políticas de la Unión.
(57) También deben clasificarse como de alto
riesgo los sistemas de IA que se utilizan en los ámbitos del empleo, la gestión
de los trabajadores y el acceso al autoempleo, en particular para la
contratación y la selección de personal, para la toma de decisiones que afecten
a las condiciones de las relaciones de índole laboral, la promoción y la
rescisión de relaciones contractuales de índole laboral, para la asignación de
tareas a partir de comportamientos individuales o rasgos o características
personales y para la supervisión o evaluación de las personas en el marco de
las relaciones contractuales de índole laboral, dado que pueden afectar de un
modo considerable a las futuras perspectivas laborales, a los medios de
subsistencia de dichas personas y a los derechos de los trabajadores. Las
relaciones contractuales de índole laboral deben incluir, de manera
significativa, a los empleados y las personas que prestan servicios a través de
plataformas, como indica el programa de trabajo de la Comisión para 2021. Dichos
sistemas pueden perpetuar patrones históricos de discriminación, por ejemplo
contra las mujeres, determinados grupos de edad, las personas con discapacidad
o las personas de orígenes raciales o étnicos concretos o con una orientación
sexual determinada, durante todo el proceso de contratación y en la evaluación,
promoción o retención de personas en las relaciones contractuales de índole
laboral. Los sistemas de IA empleados para controlar el rendimiento y el
comportamiento de estas personas también pueden socavar sus derechos
fundamentales a la protección de los datos personales y a la intimidad.
(60) Los
sistemas de IA empleados en la migración, el asilo y la gestión del control
fronterizo afectan a personas que con frecuencia se encuentran en una situación
especialmente vulnerable y que dependen del resultado de las actuaciones de las
autoridades públicas competentes. Por este motivo, es sumamente importante que
los sistemas de IA que se utilicen en estos contextos sean precisos, no
discriminatorios y transparentes, a fin de garantizar que se respeten los
derechos fundamentales de las personas afectadas y, en particular, su derecho a
la libre circulación, a la no discriminación, a la intimidad personal y la
protección de los datos personales, a la protección internacional y a una buena
administración. Por lo tanto, procede clasificar como de alto riesgo, en la
medida en que su utilización esté permitida en virtud del Derecho de la Unión y
nacional, aquellos sistemas de IA destinados a ser utilizados por las
autoridades públicas competentes, o en su nombre, o por las instituciones,
órganos u organismos de la Unión que realizan tareas en el ámbito de la
migración, el asilo y la gestión del control fronterizo como polígrafos y
herramientas similares, para evaluar determinados riesgos que presenten las
personas físicas que entren en el territorio de un Estado miembro o que
soliciten un visado o asilo, para ayudar a las autoridades públicas competentes
a examinar, con inclusión de la evaluación conexa de la fiabilidad de las
pruebas, las solicitudes de asilo, visado y permiso de residencia, así como las
reclamaciones conexas en relación con el objetivo de determinar si las personas
físicas solicitantes reúnen los requisitos necesarios para que se conceda su
solicitud, a efectos de detectar, reconocer o identificar a las personas
físicas en el contexto de la migración, el asilo y la gestión del control
fronterizo, con excepción de la verificación de los documentos de viaje. Los
sistemas de IA en el ámbito de la migración, el asilo y la gestión del control
fronterizo sujetos al presente Reglamento deben cumplir los requisitos
procedimentales pertinentes establecidos por el Reglamento (CE) n.o 810/2009
del Parlamento Europeo y del Consejo (32), la Directiva 2013/32/UE del
Parlamento Europeo y del Consejo (33) y otro Derecho de la Unión pertinente. El
empleo de los sistemas de IA en la migración, el asilo y la gestión del control
fronterizo no debe, en ningún caso, ser utilizado por los Estados miembros o
las instituciones, órganos u organismos de la Unión como medio para eludir sus
obligaciones internacionales en virtud de la Convención de las Naciones Unidas
sobre el Estatuto de los Refugiados, hecha en Ginebra el 28 de julio de 1951,
modificada por el Protocolo de 31 de enero de 1967. Tampoco debe ser utilizado
para infringir en modo alguno el principio de no devolución, ni para negar unas
vías jurídicas seguras y efectivas de acceso al territorio de la Unión,
incluido el derecho a la protección internacional.
(92) El presente Reglamento se entiende sin perjuicio de la obligación de los empleadores de informar o de informar y consultar a los trabajadores o a sus representantes, en virtud del Derecho o las prácticas nacionales o de la Unión, incluida la Directiva 2002/14/CE del Parlamento Europeo y del Consejo (39), sobre la decisión de poner en servicio o utilizar sistemas de IA. Se debe velar por que se informe a los trabajadores y a sus representantes sobre el despliegue previsto de sistemas de IA de alto riesgo en el lugar de trabajo incluso aunque no se cumplan las condiciones de las citadas obligaciones de información o de información y consulta previstas en otros instrumentos jurídicos. Además, este derecho de información es accesorio y necesario para el objetivo de protección de los derechos fundamentales que subyace al presente Reglamento. Por consiguiente, debe establecerse en el presente Reglamento un requisito de información a tal efecto, sin que dicho requisito afecte a ningún derecho vigente de los trabajadores.
TEXTO ARTICULADO
Artículo 1. Objeto
1. El objetivo del presente Reglamento es
mejorar el funcionamiento del mercado interior y promover la adopción de una
inteligencia artificial (IA) centrada en el ser humano y fiable, garantizando
al mismo tiempo un elevado nivel de protección de la salud, la seguridad y los
derechos fundamentales consagrados en la Carta, incluidos la democracia, el
Estado de Derecho y la protección del medio ambiente, frente a los efectos
perjudiciales de los sistemas de IA (en lo sucesivo, «sistemas de IA») en la
Unión así como prestar apoyo a la innovación.
2. El presente Reglamento establece:
a) normas
armonizadas para la introducción en el mercado, la puesta en servicio y la
utilización de sistemas de IA en la Unión;
b) prohibiciones
de determinadas prácticas de IA;
c) requisitos
específicos para los sistemas de IA de alto riesgo y obligaciones para los
operadores de dichos sistemas;
d) normas
armonizadas de transparencia aplicables a determinados sistemas de IA;
e) normas
armonizadas para la introducción en el mercado de modelos de IA de uso general;
f) normas sobre el
seguimiento del mercado, la vigilancia del mercado, la gobernanza y la garantía
del cumplimiento;
g) medidas en
apoyo de la innovación, prestando especial atención a las pymes, incluidas las
empresas emergentes.
Artículo 2. Ámbito
de aplicación.
... 2. A los sistemas de IA clasificados como
sistemas de IA de alto riesgo de conformidad con el artículo 6, apartado 1, y
relativos a productos regulados por los actos legislativos de armonización de
la Unión enumerados en la sección B del anexo I, únicamente se les aplicará el
artículo 6, apartado 1, y los artículos 102 a 109 y el artículo 112. El
artículo 57 se aplicará únicamente en la medida en que los requisitos para los
sistemas de IA de alto riesgo en virtud del presente Reglamento se hayan
integrado en dichos actos legislativos de armonización de la Unión.
Artículo 6. Reglas de
clasificación de los sistemas de IA de alto riesgo
2. Además de
los sistemas de IA de alto riesgo a que se refiere el apartado 1, también se
considerarán de alto riesgo los sistemas de IA contemplados en el anexo III.
Artículo 14 Supervisión
humana
1. Los sistemas de IA de alto riesgo se
diseñarán y desarrollarán de modo que puedan ser vigilados de manera efectiva
por personas físicas durante el período que estén en uso, lo que incluye
dotarlos de herramientas de interfaz humano-máquina adecuadas.
2. El objetivo de la supervisión humana será
prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los
derechos fundamentales que pueden surgir cuando se utiliza un sistema de IA de
alto riesgo conforme a su finalidad prevista o cuando se le da un uso indebido
razonablemente previsible, en particular cuando dichos riesgos persistan a
pesar de la aplicación de otros requisitos establecidos en la presente sección.
3. Las medidas de supervisión serán
proporcionales a los riesgos, al nivel de autonomía y al contexto de uso del
sistema de IA de alto riesgo, y se garantizarán bien mediante uno de los
siguientes tipos de medidas, bien mediante ambos:
a) las medidas que el
proveedor defina y que integre, cuando sea técnicamente viable, en el sistema
de IA de alto riesgo antes de su introducción en el mercado o su puesta en
servicio;
b) las medidas que el
proveedor defina antes de la introducción del sistema de IA de alto riesgo en
el mercado o de su puesta en servicio y que sean adecuadas para que las ponga
en práctica el responsable del despliegue.
4. A efectos de la puesta en práctica de lo
dispuesto en los apartados 1, 2 y 3, el sistema de IA de alto riesgo se
ofrecerá al responsable del despliegue de tal modo que las personas físicas a
quienes se encomiende la supervisión humana puedan, según proceda y de manera
proporcionada a:
a) entender adecuadamente
las capacidades y limitaciones pertinentes del sistema de IA de alto riesgo y
poder vigilar debidamente su funcionamiento, por ejemplo, con vistas a detectar
y resolver anomalías, problemas de funcionamiento y comportamientos inesperados;
b) ser conscientes de la
posible tendencia a confiar automáticamente o en exceso en los resultados de
salida generados por un sistema de IA de alto riesgo («sesgo de
automatización»), en particular con aquellos sistemas que se utilizan para
aportar información o recomendaciones con el fin de que personas físicas
adopten una decisión;
c) interpretar
correctamente los resultados de salida del sistema de IA de alto riesgo,
teniendo en cuenta, por ejemplo, los métodos y herramientas de interpretación
disponibles;
d) decidir, en cualquier
situación concreta, no utilizar el sistema de IA de alto riesgo o descartar,
invalidar o revertir los resultados de salida que este genere;
e) intervenir en el
funcionamiento del sistema de IA de alto riesgo o interrumpir el sistema
pulsando un botón de parada o mediante un procedimiento similar que permita que
el sistema se detenga de forma segura.
5. En el caso de los sistemas de IA de alto
riesgo mencionados en el anexo III, punto 1, letra a), las medidas a que se
refiere el apartado 3 del presente artículo garantizarán, además, que el
responsable del despliegue no actúe ni tome ninguna decisión basándose en la
identificación generada por el sistema, salvo si al menos dos personas físicas
con la competencia, formación y autoridad necesarias han verificado y
confirmado por separado dicha identificación.
El requisito de la
verificación por parte de al menos dos personas físicas por separado no se
aplicará a los sistemas de IA de alto riesgo utilizados con fines de garantía
del cumplimiento del Derecho, de migración, de control fronterizo o de asilo
cuando el Derecho nacional o de la Unión considere que la aplicación de este
requisito es desproporcionada.
ANEXO III
Sistemas de IA
de alto riesgo a que se refiere el artículo 6, apartado 2
Los sistemas de IA de
alto riesgo con arreglo al artículo 6, apartado 2, son los sistemas de IA que
formen parte de cualquiera de los ámbitos siguientes:
3. Educación y formación
profesional:
a) Sistemas de IA
destinados a ser utilizados para determinar el acceso o la admisión de personas
físicas a centros educativos y de formación profesional a todos los niveles o
para distribuir a las personas físicas entre dichos centros
b) Sistemas de IA
destinados a ser utilizados para evaluar los resultados del aprendizaje,
también cuando dichos resultados se utilicen para orientar el proceso de
aprendizaje de las personas físicas en centros educativos y de formación
profesional a todos los niveles
c) Sistemas de IA
destinados a ser utilizados para evaluar el nivel de educación adecuado que
recibirá una persona o al que podrá acceder, en el contexto de los centros
educativos y de formación profesional o dentro de estos a todos los niveles
d) Sistemas de IA
destinados a ser utilizados para el seguimiento y la detección de
comportamientos prohibidos por parte de los estudiantes durante los exámenes en
el contexto de los centros educativos y de formación profesional o dentro de
estos a todos los niveles
4. Empleo, gestión de los
trabajadores y acceso al autoempleo:
a) Sistemas de IA
destinados a ser utilizados para la contratación o la selección de personas
físicas, en particular para publicar anuncios de empleo específicos, analizar y
filtrar las solicitudes de empleo y evaluar a los candidatos
b) Sistemas de IA
destinados a ser utilizados para tomar decisiones que afecten a las condiciones
de las relaciones de índole laboral o a la promoción o rescisión de relaciones
contractuales de índole laboral, para la asignación de tareas a partir de
comportamientos individuales o rasgos o características personales o para
supervisar y evaluar el rendimiento y el comportamiento de las personas en el
marco de dichas relaciones
5. Acceso a servicios
privados esenciales y a servicios y prestaciones públicos esenciales y disfrute
de estos servicios y prestaciones:
a) Sistemas de IA
destinados a ser utilizados por las autoridades públicas o en su nombre para
evaluar la admisibilidad de las personas físicas para beneficiarse de servicios
y prestaciones esenciales de asistencia pública, incluidos los servicios de
asistencia sanitaria, así como para conceder, reducir o retirar dichos
servicios y prestaciones o reclamar su devolución..
No hay comentarios:
Publicar un comentario