Se ha publicado el Reglamento (UE) 2024/1689 de inteligencia artificial que clasifica los sistemas de IA según su nivel de riesgo, establece marcos regulatorios diferenciados y construye un marco de administración pública de la IA, incluyendo organismos de control y mecanismos sancionadores.
El Reglamento entra en vigor el 1-8-2024 pero establece fechas diferenciadas de aplicación.
Aspectos laborales del Reglamento IA
El Reglamento (UE) 2024/1689, del Parlamento europeo y del Consejo, establece normas armonizadas en materia de inteligencia artificial (IA) con el objetivo de establecer un marco jurídico uniforme para el desarrollo, la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial (UE) en la UE garantizando, al mismo tiempo, un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales y la protección frente a los efectos perjudiciales de los sistemas de IA en la UE (art.1). No obstante, se podrán establecer normas europeas o nacionales más favorables en materia de protección de los derechos de los trabajadores respecto al uso de sistemas de IA por parte de los empleadores, o que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores.
El objetivo es establecer un marco jurídico uniforme
El Reglamento IA extiende su ámbito de aplicación a:
Proveedores de sistemas de IA que se pongan en servicio o comercialicen dentro de la UE o cuya salida se utilice en la UE, independientemente de su origen;
Representantes autorizados de los proveedores que no estén establecidos en la Unión;
Responsables del despliegue de sistemas de IA establecidos o ubicados en la UE;
Importadores y distribuidores de sistemas de IA;
Fabricantes de productos que introduzcan en el mercado o pongan en servicio un sistema de IA junto con su producto y con su propio nombre o marca;
Personas afectadas que estén ubicadas en la UE.
Obligaciones en relación con los sistemas IA
El Reglamento clasifica los sistemas de IA, según su nivel de riesgo, en sistemas prohibidos, de alto riesgo, de uso general con riesgo sistémico y de uso general. Establece un marco regulatorio diferenciado para cada uno de ellos.
a) Entre las prácticas prohibidas de IA con relevancia desde un punto de vista laboral se identifican:
Las destinadas a inferir las emociones de una persona física en los lugares de trabajo y en los centros educativos, excepto que tenga motivos médicos o de seguridad (art.5.f);
Los sistemas de categorización biométrica que clasifiquen individualmente a las personas físicas sobre la base de sus datos biométricos para deducir o inferir, entre otros datos, su raza, opiniones políticas, afiliación sindical, convicciones religiosas o filosóficas, vida sexual u orientación sexual (art.5.g).
Estas prohibiciones serán de aplicación a partir del 2-2-2025 (art.113.a).
b) Entre los sistemas de alto riesgo se incluyen, con carácter general, todos los que efectúen una elaboración de perfiles de personas físicas (art.6.3). Además, el Anexo III incluye una lista cerrada de Sistemas IA de alto riesgo, que podrá ser modificada, entre los que se incluyen los siguientes con relevancia en el empleo, gestión de los trabajadores y acceso al autoempleo:
Los destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos;
Los destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones laborales o a la promoción o rescisión de relaciones contractuales, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones.
Prácticas prohibidas: inferir emociones en personas, clasificarlas mediante datos biométricos…
Estos sistemas de alto riesgo deberán reunir, a partir del 1-8-2024, los requisitos que se precisan en relación con la gestión del riesgo (art.9), gobernanza de datos (art.10), documentación técnica (art.11), registro (art.12), transparencia (art.13), supervisión humana (art.14) y precisión, solidez y ciberseguridad (art.15). Se establecen también las obligaciones para proveedores (art.16 a 22), comercializadores (art.23 y 24) y usuarios de estos sistemas de alto riesgo.
Además, los responsables del despliegue de un sistema de IA de alto riesgo que sean empleadores deberán informar a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización de éste. Esta información se facilitará, antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo; y, cuando proceda, se hará con arreglo a las normas y procedimientos establecidos en el Derecho nacional y de la UE y conforme a las prácticas en materia de información a los trabajadores y sus representantes (art.26.7).
Los sistemas de alto riesgo deberán quedar registrados en una base de datos europea específica, que será accesible al público excepto cuando se trate de sistema IA que están siendo probados (art.49 y 71).
Régimen sancionador (art.99 y 113.b)
A partir del 2-8-2025 los Estados miembros deberán contar con un régimen de sanciones aplicable a las infracciones del Reglamento que cometan los operadores que deberán ser efectivas, proporcionadas y disuasorias. Tendrán en cuenta los intereses de las pymes, incluidas las empresas emergentes, así como su viabilidad económica. No obstante, el Reglamento sanciona expresamente el incumplimiento de la prohibición de las prácticas de IA con multa de hasta 35 millones de euros. Si el infractor es una empresa, la sanción será del 7 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
Recoge, además, las siguientes sanciones:
Por el incumplimiento de las obligaciones de proveedores (art.16), representantes autorizados (art.22), importadores (art.23), distribuidores (art.24) responsables del despliegue (art.26), organismos notificados (art.31, 33. 1, 3 y 4, y 34) y en materia de transparencia de los proveedores y responsables del despliegue (art.50).
En este caso, las multas podrán ser de hasta 15 millones de euros o, si el infractor es una empresa, de hasta el 3 % de su volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
La presentación de información inexacta, incompleta o engañosa a organismos notificados o a las autoridades nacionales competentes en respuesta a una solicitud podrá ser sancionada con hasta 7,5 millones de euros o, si el infractor es una empresa, de hasta el 1 % del volumen de negocios mundial total correspondiente al ejercicio financiero anterior, si esta cuantía fuese superior.
A partir del 1-8-2024, la Comisión podrá sancionar a los proveedores de modelos de IA de uso general cuando considere que de forma deliberada o negligente han infringido las disposiciones del Reglamento o han incumplido determinadas obligaciones de información y transparencia. Las multas podrán ascender hasta una cuantía equivalente al 3% de su volumen de negocios mundial total anual correspondiente al ejercicio financiero anterior o hasta 15 millones de euros, si esta cifra es superior (art.101 y 113.b).
Organismos de control
El Reglamento IA establece como organismo de supervisión de los sistemas de IA: el Comité europeo de IA (art.65) y, a nivel nacional, una autoridad notificadora y al menos una autoridad de supervisión de mercado supervisadas por el Supervisor europeo de protección de datos (art.70).