x
Contenidos exclusivos, revista física
y muchas más ventajas
Publicidad

La Ley Rider y la Ley de IA: ¿Cómo afectarán a tu empresa?

Tras su aprobación por el Parlamento Europeo, sometemos a examen la Ley Rider y la Ley de Inteligencia Artificial.

31/03/2024  Ana DelgadoActualidad

La Eurocámara ha aprobado el nuevo Reglamento de Inteligencia Artificial (IA) y la directiva de trabajo en plataformas digitales, más conocida como la Ley Rider. ¿Cómo afectan ambas normas a tu empresa?

La ‘Ley Rider’ se extiende a las plataformas digitales

España fue pionera en el territorio comunitario con la aprobación de la denominada Ley Rider, vigente en nuestro país desde 2021. De hecho, fue a instancias del Gobierno español que la Eurocámara se planteara esta cuestión.

El texto aprobado persigue otorgar derechos laborales y garantías sociales a todas aquellas personas que trabajan en las plataformas digitales. Esta es la gran novedad.

Mientras que la Ley Rider afectaba únicamente a las plataformas de reparto, servicios de delivery como los prestados por Glovo o Uber East, el reglamento europeo “extiende ahora la normativa a todas aquellas plataformas digitales que ofrezcan servicios laborales, que son muchas y cada vez más”, observa Ignacio Hidalgo, socio del área laboral de RSM Spain. 

Bajo la categorización de plataformas digitales laborales (PDL) el trabajo se terceriza mediante convocatorias abiertas a una audiencia geográficamente dispersa. Se incluyen aquí plataformas que ofrecen servicios profesionales de formación, actividades administrativas y contables, traducción, cuidados a domicilio, conductores, limpieza y un sinfín de actividades más. 

En España, según el Servicio Público de Empleo Estatal (SEPE), se contabilizaban un total de 226 plataformas de este tipo en 2021. A todas ellas afectará la ley, una vez la traspongan los Estados miembros de la Unión (tienen de plazo dos años para incorporar las disposiciones de la directiva a sus respectivas legislaciones), estableciendo la presunción de laboralidad respecto a los trabajadores que operan a través de ellas.

En cuanto a la relación contractual entre las partes, bien sea de carácter laboral, bien mercantil, señala Hidalgo que la norma comunitaria delega la elección en cada Estado, por lo que tampoco cambia tanto la cosa. 

Algoritmos más transparentes

Otra novedad que incorpora la ley atañe al control de los algoritmos creados para el funcionamiento de la plataforma. El acuerdo garantiza que los trabajadores estén debidamente informados sobre el uso de sistemas automatizados de seguimiento y toma de decisiones sobre su contratación, sus condiciones de trabajo y sus ingresos, entre otras cosas.

Para determinadas tomas de decisiones, como puede ser la expulsión de un profesional de la plataforma, se propone incluso la supervisión humana al objeto de garantizar la protección de los derechos básicos de los trabajadores, incluido el derecho a que dichas decisiones sean explicadas y revisadas.

Se prohibe, también la toma y tratamiento de determinados datos, como los biométricos o los relativos a su estado emocional o psicológico. Asimismo, se garantiza la supervisión y evaluación humana de las decisiones automatizadas, incluido el derecho a que dichas decisiones sean explicadas y revisadas.

Reglamento de Inteligencia Artificial

La Ley alcanza a desarrolladores, proveedores, distribuidores y usuarios de sistemas de IA, entendidos como los basados en una máquina, con distintos niveles de autonomía, con capacidad de adaptación y que, a través de interacciones, infieren la manera de generar respuestas, como predicciones, contenidos, recomendaciones o decisiones.

El propósito de la Ley de Inteligencia Artificial, dicen, es proteger los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental frente a la IA que entraña un alto riesgo. El Reglamento presta especial atención a la calidad de los datos, la seguridad, la transparencia, la privacidad, la no discriminación y la supervisión humana. Atendiendo a estos aspectos, establece una serie de obligaciones para la IA en función de sus riesgos potenciales y su nivel de impacto y establece, en consecuencia, una serie de aplicaciones prohibidas.

Niveles de riesgo y usos prohibidos

La norma categoriza los sistemas de IA distinguiendo hasta cuatro niveles de riesgo asociados a distintas áreas. Andrea Fernández, consultora de derecho TIC y protección de datos en Secure&IT, explica cuáles son:

1. Sistemas de riesgo inaceptable. Son aquellos que se consideran una amenaza para las personas y serán prohibidos. Algunos ejemplos serían: la manipulación cognitiva, la puntuación social o los sistemas de identificación biométrica en tiempo real y a distancia. Existen, no obstante, algunas excepciones que se permitirán para perseguir delitos graves previa autorización judicial.

2. Sistemas de alto riesgo.  Se incluyen aquí posibles daños a la salud, la seguridad, los derechos fundamentales o el medio ambiente. Algunas de las obligaciones previstas son: realizar evaluaciones de riesgo durante todo el ciclo de vida, ser aprobados mediante procedimientos adecuados antes de su uso, ser supervisados por personas físicas, etc.

Dentro de los sistemas de alto riesgo se incluyen, por un lado, aquellos productos sujetos ya a una regulación de seguridad específica, como el sector de la aviación, ascensores o dispositivos médicos, y por otro lado sistemas que aplican a ocho ámbitos específicos entre los que se encuentran, por ejemplo, la identificación y categorización de personas, los relacionados con la educación y la formación profesional, o la migración, asilo y control de fronteras. 

3. Sistemas de riesgo limitado. Estos deben ser transparentes y permitir a los usuarios tomar decisiones informadas. Eso significa que los usuarios deben estar informados de que están interactuando con una IA, salvo en aquellas situaciones en las que resulte evidente. Esto incluye los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo (por ejemplo, deepfakes). Todos estos contenidos deberán etiquetarse como generados por IA.

4. Sistemas de riesgo mínimo. La gran mayoría de los sistemas de IA que se usan actualmente en la UE entran en esta categoría, por lo que nada cambiará para ellos en cuanto a requisitos legales. La nueva Ley permite el libre uso de este tipo de sistemas que incluye los que se integran en sistemas de filtrado de spam para el correo electrónico o los que contienen algunos videojuegos.

A mayor riesgo mayor bloqueo y menos posibilidades de usar esa IA. Las multas por presentar información inexacta o engañosa a las autoridades serán de hasta 7,5 millones de euros o el 1% de la facturación global de las empresas, mientras que por no respetar prácticas prohibidas pueden llegar a los 35 millones de euros o el 7% del volumen mundial de negocios, lo que sea mayor. Para las pymes, se aplicaría la sanción menor.

Apoyo a la innovación y a las pymes europeas

La norma advierte también de la necesidad de poner a disposición de las pymes y de las empresas emergentes espacios controlados de pruebas y ensayos en condiciones reales a nivel nacional para que puedan desarrollar y entrenar la IA innovadora antes de su comercialización.

El impacto en startups locales fue un punto sensible a la hora de negociar la ley, sobre todo, para Francia y Alemania que rechazaban afectar a sus empresas nacionales.

Ana Delgado