El algoritmo no es un mito, es un jefe insensible

2023-05-24 Leer en voz alta

Por: Carolina Botero

Acceder a la publicación original de esta columna de opinión.

El Congreso colombiano discute si debe haber y cómo deben ser las relaciones laborales en las plataformas de domicilios –como Rappi o Didi Food–. Mientras se discute el rol del derecho laboral, es necesario tener una regulación que, entre otras cosas, impida que las plataformas tomen decisiones arbitrarias contra colaboradores o trabajadores, que asegure canales de comunicación que les sirvan y que promueva la transparencia en la forma en las que funciona la plataforma, por ejemplo, en el cálculo de distancias y precios.

Estas reformas son urgentes para llevar el trabajo en plataformas a estándares dignos y no dependen de que se decida el vínculo laboral.

En febrero pasado, Karisma, donde trabajo, publicó un documento para formar política pública titulado “Cómo domar el algoritmo: recomendaciones para mejorar el bienestar de los repartidores de las apps de domicilios en Colombia”. Analizamos allí la forma como el algoritmo de estas plataformas determina la cotidianidad del trabajo de quienes entregan domicilios, para así proponer una serie de acciones que el Estado puede adelantar para mejorar su calidad de vida.

Por ejemplo, durante la investigación para estas recomendaciones, un domiciliario nos contó que presenció cómo uno de sus colegas era chocado por un carro. Su reacción humana fue detenerse, ayudarlo, asegurarse de que recibiera atención médica y acompañarlo. El algoritmo estableció que su domicilio no fue entregado y procedió a bloquear durante varios días al domiciliario que se detuvo a ayudar a su compañero. Este bloqueo sucede sin que exista opción alguna de controvertir la decisión, no tuvo ante quién explicar su comportamiento. Por otra parte, el domiciliario que sufrió el accidente falleció poco después. Más allá de lo trágico de este caso, quién no haría eco de la siguiente conclusión: ¡Las plataformas no pueden bloquear el trabajo de una persona automáticamente sin ofrecerle la oportunidad de reclamar, explicar y que alguien revise la situación!

Con base en la experiencia de quienes participaron de la investigación determinamos que las personas que trabajan en estas plataformas no cuentan con canales de comunicación con otro ser humano y que poco saben de cómo y con qué información el algoritmo toma decisiones. Simplemente sufren sus consecuencias.

El análisis nos permite afirmar que, frente a decisiones automatizadas, debe siempre haber canales abiertos atendidos por personas que permitan dar explicaciones, notificar incidentes del viaje y tener comunicación con la plataforma, incluso si están bloqueados. Se debe poder exigir ciertas variables a considerar por el algoritmo. No pudimos establecer, por ejemplo, si el algoritmo de estas plataformas analiza condiciones de riesgo como el clima o la seguridad de un sector al asignar pedidos, si incorporan estos elementos cuando calculan la compensación correspondiente o decretan un bloqueo.

Hace poco el director ejecutivo del gremio de las aplicaciones “Alianza In” dijo en una entrevista ante La Silla Vacía que en su opinión “el algoritmo se ha convertido en una especie de ‘mito’”. Pareciera que con esta afirmación la industria adopta la definición de mito que tiene la RAE “Persona o cosa a la que se atribuyen cualidades o excelencias que no tiene”. Con esta afirmación, los líderes de esta industria sugieren que las personas que trabajan llevando domicilios conciben ese algoritmo como una especie de monstruo al cual culpar de cualquier eventualidad desfavorable, cuando en realidad se trata “solo” de un sistema programado por seres humanos que sirve para coordinar el trabajo.

Sin embargo, por lo que vimos en la investigación, estas personas lidian con las decisiones algorítmicas de las plataformas todos los días y definitivamente por sus consecuencias lo que viven no es un mito. El algoritmo en esta industria no solo es un sistema para coordinar el trabajo. Para las personas que hacen los domicilios es una caja negra que determina cuánto vale su trabajo ese día y a esa hora, qué tanto deben correr y ponerse en riesgo para cubrir una distancia en un tiempo dado o qué tanto durará el castigo de bloquearlos si no cumplen con una meta.

El algoritmo, lejos de ser un mito, es una fuerza incomprensible que, como jefe insensible y preocupado por su ganancia, define todos los aspectos de su trabajo y contra la que no pueden protestar. Sobre todo, no es “solo” una herramienta de coordinación, el algoritmo no se puede mirar sin reconocer que puede ser el activo más importante de las plataformas, es lo que les permite maximizar sus ganancias, y en ese sentido es un secreto corporativo bien guardado.

Con este contexto, el informe concluye que se requiere una regulación más cercana y eficiente que garantice la equidad, transparencia y legibilidad del algoritmo, que sea clara en la protección de los datos personales de las personas repartidoras y usuarias de las aplicaciones. También aboga por que, independientemente de las obligaciones de transparencia, existan mecanismos para mitigar los malos efectos, permitiendo a las personas por ejemplo reclamar las consecuencias de las decisiones algorítmicas.

Dentro de las recomendaciones está que, más allá de las decisiones sobre la aplicación de las leyes laborales que requieren de una discusión importante, en Colombia el Ministerio TIC tiene la oportunidad de incorporar en su agenda digital la regulación directa de la tecnología que mejore las condiciones de las personas trabajadoras de las plataformas.

En el marco de la actual reforma laboral la discusión se ha enfocado en el estatus de las personas repartidoras como trabajadoras o colaboradoras, es decir, en la pregunta por su vinculación laboral con la plataforma. Esta discusión, que incluye temas como la afiliación a una ARL o un seguro médico, entre otros, es fundamental y consideramos que debe avanzar. Las plataformas no pueden justificarse en vacíos legales que permitan evadir los mínimos construidos en la histórica lucha por el derecho laboral. Sin embargo, mientras esto se define, se puede actuar sobre las condiciones de las personas que todos los días hacen este trabajo.

Es decir, frente a una agenda regulatoria global que tiene entre sus prioridades a las plataformas de la nueva economía digital, el Ministerio TIC tiene la oportunidad de hacer un verdadero avance en el reto de regular la Inteligencia Artificial en el país. Si hiciera esto iría más allá de las discusiones amplias y abstractas sobre regular plataformas o regular la Inteligencia Artificial en general, para enfocarse en la aplicación de Inteligencia Artificial en un segmento particular de la economía digital, con consecuencias concretas para la vida de estas personas. Se trata de pedirle al Estado que actúe frente a los efectos discriminatorios de las decisiones algorítmicas sobre el trabajo y la vida de las personas que hacen domicilios.


Si por algún motivo esta entrada no es accesible para tí, por favor escríbenos a comunicaciones@karisma.org.co y haremos los ajustes que estén a nuestro alcance para que puedas acceder al contenido.

Indícanos el título del contenido en el asunto del correo, por ejemplo: El algoritmo no es un mito, es un jefe insensible


Es fundamental poner el tema en la agenda y nutrir la conversación. ¿Trabajas en un medio de comunicación? Escríbenos a comunicaciones@karisma.org.co


Acompáñanos en @Karisma en Twitter, Fundación Karisma en Facebook y YouTube, y @karismacol en Instagram y Tik Tok

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.