Taxi Project 2.0 participa en un foro en el Parlamento Europeo

Taxi Project 2.0 participa en un foro en el Parlamento Europeo

Taxi Project 2.0 participa en un foro en el Parlamento Europeo para influir en la nueva Directiva de Trabajadores de Plataforma

El pasado 7 y 8 de septiembre, una delegación de Taxi Project 2.0 participó en un foro de debate en el Parlamento Europeo organizado por la Izquierda Europea para debatir sobre la nueva Directiva de Trabajadores de Plataforma, que actualmente se encuentra en debate en el seno de la UE, y que según el calendario oficial debe aprobarse a finales de 2022.

Esta Directiva supondría el reconocimiento de los derechos de los trabajadores de plataforma, que muy a menudo trabajan bajo el formato de falsos autónomos sin ningún tipo de protección ni derechos. En especial, Taxi Project reclamó que no se diluya en el actual debate en la UE, la presunción de laboralidad de cualquier trabajador de plataforma que afirme estar bajo tal relación, y que la carga de la prueba de la no laboralidad recaiga a partir de ahora en la empresa de plataforma. De esta forma, los trabajadores estarían protegidos como empleados bajo el paraguas del derecho laboral hasta que las plataformas para la que trabajan demuestren que el trabajador no es un empleado, sino un contratista libre que actúa de forma independiente.

Además, Taxi Project 2.0, actuando de la mano del Observatorio del Trabajo, el Algoritmo y la Sociedad, realizó propuestas para garantizar los derechos digitales de los trabajadores ante los procesos automatizados y de inteligencia artificial a los que estos se enfrentan los trabajadores. Las propuestas de Taxi Project y el Observatorio TAS fueron las siguientes:

Sobre los problemas de superposición de legislación como la Directiva de Trabajadores de Plataforma (DTP), la Regulación de IA, el Reglamento General de Protección de Datos (RGPD), y la Regulación de Mercados Digitales el Taxi Project 2.0 propuso:

  • Portabilidad: los trabajadores deben tener acceso y capacidad de transferencia de sus datos, incluidos los datos input, observados y de inferencia.
  • Se deben aplicar sanciones cuando no se realicen evaluaciones de riesgo en los sistemas de monitoreo y automatización.
  • Debe suponerse legalmente que ciertos tipos de toma de decisiones automatizadas siempre tienen un efecto significativo de acuerdo con el artículo 22 del RGPD. Esto incluye la asignación de trabajo, la fijación de salarios, el desempeño, la identificación y la detección de fraudes.
  • El artículo 8 de la DTP debe aclarar la relación con el artículo 22 del RGPD y establecer que los requisitos del artículo 22 se aplican igualmente dentro de la Directiva.

Sobre la toma de decisiones automatizada y semi-automatizada

  • Debe haber una presunción legal de que no ha hay intervención humana en la toma de decisiones automatizada. La carga de la prueba debe recaer en el controlador de datos/empleador sobre la existencia y la calidad de una intervención humana significativa.
  • Los despidos automatizados no pueden justificarse como parte necesaria del contrato.
  • Los estados miembros deben garantizar el acceso a la ‘explicabilidad’ y la lógica de los procesos automatizados, en el sentido del artículo 22, dentro de los procedimientos legales laborales existentes. El artículo 16 de la Directiva sobre plataformas debería aplicarse también a las personas en situación de desempleo.

Sobre la Transparencia en la Inteligencia Artificial

  • Debe haber un derecho a la ‘explicabilidad’ para abarcar explicaciones basadas en procesos y resultados. Específicamente, los usuarios y trabajadores deberían tener derecho a explicaciones relativas a los procesos automatizados de los siguientes temas:
    • Explicación de la razón
    • Explicación de responsabilidad
    • Explicación de datos
    • Explicación de equidad
    • Explicación de seguridad y desempeño
    • Explicación de impacto

Sobre la representación y no discriminación

  • Los sindicatos y los órganos de representación de los trabajadores deben tener el derecho a pedir la lógica y/o explicación de la toma de decisiones automatizada.
  • Deben considerarse las reglas de «guardián» (gate-keeper) relevantes en la regulación de servicios digitales y la regulación de mercados digitales y que se apliquen las mismas obligaciones en la DPT, especialmente contra la discriminación.

Tiempo de trabajo, trabajo de aplicaciones múltiples y clasificación errónea algorítmica

  • El tiempo de trabajo debe abordarse con un plan de pago por trabajo a destajo. Por ejemplo, pagando al menos 1.5x el salario mínimo interprofesional cuando corresponda por el tiempo comprometido desde el envío hasta la entrega. Esto supera el problema del riesgo de aplicaciones múltiples y las limitaciones de la DTP en relación a cómo remunerar los tiempos de espera.
  • El Anexo 3 de la ley de AI debe enmendarse para incluir el lenguaje típico de clasificación errónea para describir lo que realmente es una función de recursos humanos mal clasificada. Por ejemplo, la detección antifraude se utiliza a menudo para disfrazar despidos por desempeño y otras medidas disciplinarias.

En los próximos meses Taxi Project 2.0 continuará trabajando en favor de los trabajadores de la UE, intentando trasladar estas propuestas a la nueva directiva, así como a la legislación estatal, autonómica y local que afecte a los socios de Taxi Project y a los taxistas y trabajadores de las empresas de plataforma.