La “ley rider”, un pequeño gran paso para la regulación de la IA en entornos laborales

El Gobierno ha aprobado la popularmente conocida como ‘ley rider’, una normativa pensada para que los repartidores de plataformas como Glovo, Deliveroo y Uber Eats dejen de ser autónomos. Pero, a la vez, se trata de una ley que va mucho más allá de dicho sector. Y es que la nueva ley convierte a España en un referente mundial a la hora de abordar la regulación de la Inteligencia Artificial en el trabajo.

A partir del mes de mayo de 2021 un nuevo cambio legislativo en el Estatuto de los Trabajadores obliga a todas las empresas (y no solo a las plataformas digitales más conocidas) a informar sobre sus algoritmos a los respectivos representantes sindicales. Es la conocida como ley rider, una normativa que nace para proteger a los cada vez más trabajadores de plataformas como Glovo, Deliveroo y Uber Eats pero cuyas consecuencias laborales van mucho más allá del sector digital. Hasta el 12 de agosto, las empresas pueden negociar los acuerdos de subcontratación de riders bajo el nuevo reglamento.

Desde Eticas recopilamos las tres consideraciones que nos surgen a propósito de la ya aprobada #LeyRider:

1. Es una ley pionera que abre una vía a las auditorías algorítmicas. Algo positivo que no sólo afectará a los riders. Pero, con la normativa en mano, hay que tener claro que la ley es el primer paso, “pero falta el reglamento”. Lo explicaba Gemma Galdon en este debate con Maldita Tecnología.

2. Falta definir cómo se llevará a cabo la transparencia algorítmica que pide la nueva ley. Hay pocos antecedentes de apertura de algoritmos y los pocos que hay (principalmente en EEUU) están centrados en la regulación de salarios. Con esta ley se quieren medir impactos y hacer valoraciones algorítmicas. “El real decreto es tan abstracto que plantea numerosas dudas legales sobre su ejecución”, reitera Irene Cortés para El Confidencial.

3. La ley rider nos recuerda que los algoritmos no tienen que reproducir la realidad, sino que tienen que cumplir la ley. Eso quiere decir proteger a los colectivos vulnerables. Para ello, los ingenieros que programan algoritmos tienen que empezar a acercarse a los contexto sociales. Hasta ahora se ha confiado el desarrollo de la tecnología y la codificación de los algoritmos a ingenieros que codifican un mundo que no entienden, porqué nadie les ha enseñado. Hacen lo que pueden. Y lo hacen sin contexto social. “En el futuro, sería positivo que los ingenieros fuesen más humanistas y que los filósofos, historiadores y sociólogos formasen parte de los procesos tecnológicos”, asegura Galdon en la charla con Maldita Tecnología. “Solo así habrá una #InteligenciaArtificial ética y que tenga en cuenta el contexto social”.

Recent Blog Posts

If you want to know if your algorithms work or not, let's talk!

  1. Select a date and time. 
  2. Enter your name and email.
  3. Invite your colleagues.
  1. Selecciona una fecha y hora.
  2. Ingresa tu nombre y correo electronico.
  3. Invita a tus colegas.