Sur les plateformes, des mécaniques de reproduction des discriminations

, ,
Options - Le journal de l'Ugict-CGT
Sur les plateformes, les discriminations se matérialisent dès l’offre de travail. © Peter Steffen/dpa/picture-alliance /Newscom / MaxPPP
Des chercheurs démontrent l’illusion de la rhétorique antidiscriminations utilisée par les plateformes dans leurs services, leurs outils et les relations de travail. Illustration.

«  Disruptions  » et fin du «  monde d’avant  », voilà les promesse du numérique. Et ses outils de multiples mises en relation entre acheteurs/consommateurs et vendeurs/prestataires ont fait des plateformes d’inévitables interfaces dans de nombreux domaines. Mieux encore  : les plateformes porteraient également, dans leurs discours, un « engagement  » de neutralité et d’égalité.

Ce mardi 4 octobre 2022, le ministère du Travail accueillait un colloque coorganisé par la Drees et la Dares, durant lequel cette promesse antidiscriminations a été auscultée et, pour le moins, mise à mal par des chercheurs et des spécialistes.

Les fausses promesses des plateformes

Guénolé Marchadour, sociologue au Cnam, affirme que si les plateformes offrent «  l’illusion de la neutralité technologique », elles ne font pas disparaitre les discriminations. Au contraire, le changement de paradigme véhiculé dans leur communication, pour Uber par exemple, demeure à l’état d’argument marketing. Les algorithmes les faisant « tourner » restent remplis, en effet, par les biais de leurs créateurs, répondant à des logiques et des objectifs qui restent matrices de discriminations.

Parfois le combat contre les discriminations a pu être un moteur de la création même de ces services. Ainsi Uber a-t-il « déployé son modèle en capitalisant sur le refus raciste des chauffeurs de taxi de servir les Afro-Américains », rappelle le sociologue,  et cela l’a conduit à utiliser une «  rhétorique inclusive » lors de son arrivée en France…

Discriminations  : dès l’offre de travail

Ce discours s’accompagne de stéréotypes dans la proposition de devenir chauffeur VTC grâce à Uber, ou de se contenter de « tenir les murs de la cité ». Ces discriminations se matérialisent donc en réalité, dès la présentation du travail offert par les plateformes. Et visent des catégories particulières de populations pour être les petites mains des services.

La « formalisation numérique » des relations de travail crée une tension avec l’«  informalisation  » du statut des travailleurs. Le poids des travailleurs sans papiers dans la livraison de repas n’est pas neutre dans la relation au travail. Et la prégnance des rapports sociaux reste importante dans les plateformes, leur imbrication permet aux rapports de race et de genre de se déployer, comme ailleurs.

Dans la même logique, pour attirer dans des secteurs très féminisés, comme la coiffure, les plateformes continuent d’utiliser des schémas genrés, en proposant par exemple une meilleure articulation entre vies professionnelle et privée. Cet argument, supposé faciliter le recrutement de femmes, notamment des milieux populaires, alimente une représentation inégalitaire femmes-hommes.

La lutte contre les discriminations  : un objet complexe

La lutte contre les discriminations dans le travail de plateforme demeure un objectif complexe. Parce qu’il y a des obstacles à l’action collective dans un cadre atomisé par le numérique. Mais aussi parce que les outils juridiques manquent, en dépit de condamnations déjà prononcées.

Philippe Besse, mathématicien à l’université de Toulouse, évoque le cas de Foodinho (Glovo) condamné par le tribunal de Bologne fin 2020 pour discrimination  : des livreurs absents pour grève ou pour raison de santé n’avaient plus eu accès aux créneaux de livraison.

Autre exemple cité, celui des Pays-Bas contraints de mettre un terme, en raison de ses biais,  à un système susceptible de débusquer les fraudeurs à l’aide sociale. Le renouvellement des outils juridiques permettrait, en sus d’autres actions judiciaires, de prévenir les « biais algorithmiques  ».

Face à ces manques, la voie judiciaire semble la plus simple à ce jour, sauf à avoir accès aux créateurs de ces algorithmes et à revoir en profondeur les biais de traitement que leur création génère. Le Conseil d’État propose que la Cnil soit dotée des moyens et des compétences pour, justement, auditer et détecter les discriminations algorithmiques…

Lennie Nicollet