Dialogue social : dans les accords collectifs, faire une place à l’IA
De plus en plus de professions sont confrontées au déploiement de l’intelligence artificielle générative. Si tout le monde s’accorde sur la nécessité d’un dialogue social « technologique » avant, pendant et après la mise en place des systèmes d’IA, celui-ci reste balbutiant. Comment accélérer ?
Qui n’a jamais rêvé d’IA se trouve rattrapé par la réalité. Au moins dans le monde du travail : à tous les niveaux, et quel que soit le revenu, les données mettent aujourd’hui en évidence une influence possible de l’intelligence artificielle générative sur les métiers. Ce « possible », l’Organisation internationale du travail (Oit) en donne la mesure dans une étude qui s’attache notamment à quantifier ce qu’elle appelle « le grand inconnu », un espace relatif aux professions qui pourraient être soient transformées par l’augmentation permise par l’IA générative, soient « déplacées » par la substitution automatisée.
Or ce « grand inconnu » affecterait presque un quart des travailleurs dont les revenus sont élevés, mais aussi, dans une moindre mesure, ceux relevant des revenus intermédiaires. Certaines professions sont déjà touchées frontalement : dans le secteur musical, les créateurs devraient perdre presque un quart de leurs revenus d’ici à 2028, presque tout autant (21 %) pour ceux du secteur audiovisuel. L’alarme a été lancée par une étude mondiale commanditée par la Confédération internationale des sociétés d’auteurs et compositeurs (Cisac) et publiée en décembre 2024. Son président prévient : « Pour les créateurs de tous les répertoires, des auteurs-compositeurs aux réalisateurs et des scénaristes aux compositeurs de musique de film, l’IA peut ouvrir la porte à de nouvelles opportunités très prometteuses – mais nous devons reconnaître que, si elle n’est pas adéquatement réglementée, l’IA générative a aussi le pouvoir de faire beaucoup de tort aux créateurs humains et de porter préjudice à leurs carrières et à leurs moyens de subsistance. »
Sous la surface visible des modèles d’IA
Il faut donc les réguler, et bonne nouvelle, « c’est une aubaine pour les juristes », se réjouit Claire Marzo, maîtresse de conférence à l’université Paris-Est Créteil, rattachée au laboratoire Marchés, institutions, libertés (Mil). Au niveau européen, le législateur a certes produit une réglementation utile, mais elle reste ambiguë et comporte des lacunes. « Le législateur n’a pas non plus abordé plusieurs dimensions périphériques mais fondamentales, qui existent sous la surface visible des modèles d’IA », montre Aida Ponce Del Castillo, chercheuse à l’Institut syndical européen, autrice d’une étude sur l’IA générative « dépendante de l’homme, juridiquement incertaine, écologiquement non durable ».
Comment, en particulier, combler ces vides ? Le Mil a organisé, avec l’Institut de recherches économiques et sociales (Ires), une journée d’étude à l’université Paris-Est Créteil (1) pour examiner cette question sous l’angle des conventions ou des accords collectifs, et plus généralement du dialogue social, en envisageant plusieurs dimensions liées au développement de l’IA et du management algorithmique : santé et sécurité, organisation collective, accompagnement au changement des métiers…
Un électrochoc nommé ChatGpt
Parmi les accords collectifs signés entre 2017 et 2024, peu mentionnent l’IA. Mais, comme l’a montré une recherche récente du Conservatoire national des arts et métiers (Cnam), depuis le lancement de ChatGpt en 2022, « leur nombre a rapidement augmenté, en concernant désormais, dans des proportions variables, presque tous les secteurs d’activité ». L’analyse de ces accords révèle un large éventail de thèmes traités, avec une surreprésentation des négociations sur l’emploi : c’est le cas de plus d’un tiers de ceux qui mentionnent l’IA. Suivent, par ordre décroissant : les discriminations, le handicap et les seniors ; le télétravail et le droit à la déconnexion ; les conditions de travail ; l’égalité femmes-hommes. Dans tous les cas, l’emploi prime sur le travail, notent les chercheurs, un thème essentiellement associé aux enjeux de santé et de télétravail.
Dans la construction de ce dialogue dit « technologique », les accords de télétravail, qui se sont développés au cours des années 2019-2020, peuvent-ils être une source d’inspiration ? Claire Marzo tire plusieurs enseignements de l’étude de 14 accords et chartes. Premièrement : ces derniers contiennent bien des droits adaptés à la réalité nouvelle, mais dont la substance reste identique, en portant sur des thèmes traditionnels – santé et sécurité, formation, négociation collective, égalité femmes-hommes. Ils coexistent avec des droits nouveaux – déconnexion, protection des données… – pertinents tant pour le télétravail que pour le déploiement de l’IA. En parallèle émergent des « devoirs » nouveaux, liés à la nécessité de repenser le devoir de loyauté et de confidentialité par rapport à l’entreprise.
« Réintroduire le cerveau humain au milieu des machines »
Mais il faut aller plus loin. En particulier en termes de contrôle et de surveillance : de l’employé par l’employeur d’une part ; des systèmes automatisés par l’humain, d’autre part. Ce pouvoir de contrôle est garanti par la Directive européenne sur les travailleurs de plateformes (28 millions de personnes en 2021). « Ce texte montre comment on cherche à réintroduire le cerveau humain au milieu des machines et des décisions algorithmiques. Cette approche a vocation à se généraliser », explique l’universitaire.
Les employés, par exemple, ne peuvent pas être licenciés sur la base d’une décision prise par un algorithme. Pour Barbara Palli, maîtresse de conférence à l’université de Lorraine, qui étudie le lien entre IA et risques psychosociaux, c’est fondamental : « C’est une chose d’être juste informé de l’existence d’un algorithme ; c’est autre chose d’avoir la garantie qu’en cas de difficulté, un humain pourra contrôler si les décisions prises sont conformes ou pas. »
Santé au travail : l’IA pour le meilleur… ou pour le pire ?
Mais si la négociation collective a toute sa place, le dialogue reste balbutiant. Notamment dans le domaine de la santé au travail : l’IA peut déjà détecter l’état de fatigue, l’état psychologique et même certaines pathologies des travailleurs. Barbara Palli, qui insiste sur l’ambivalence des systèmes d’IA, s’interroge sur l’utilisation d’outils permettant par exemple de mesurer et d’adapter les doses d’insuline : « Mis en place pour faciliter l’intégration de travailleurs handicapés, on en repère d’emblée le bon côté : leur permettre de poursuivre une activité professionnelle. Mais on peut aussi questionner l’utilisation de ces données. Vont-elles servir uniquement des objectifs de santé ou de sécurité ? Ou être utilisées par les ressources humaines, en conduisant potentiellement au licenciement des intéressés ? »
Lequel de ces deux scénarios, finalement, l’emportera ? Les projets scientifiques et d’initiative syndicale se multiplient pour favoriser celui qui sera favorable aux travailleurs. Nous en citerons deux.
Le second projet émane de Uni-Europa, le syndicat européens des travailleurs des services qui conduit, avec l’Institut Friedrich Ebert, un projet de recherche sur les pratiques de négociation collective en matière d’IA. Qui dit « pratiques » dit « exemples concrets » : fort de son expérience en la matière – 42 % des syndicats auraient déjà négocié sur l’IA et la gestion algorithmique dans le secteur des services –, l’Uni met à disposition sur son site web une base de données recensant les clauses des conventions collectives traitant de ces questions. L’outil permet une recherche par thème (formation, temps de travail, droit à la déconnexion…) et par secteur (banques et assurances, services financiers, transports, communication…) en ciblant six pays : Finlande, Allemagne, Italie, Espagne, Suisse, Royaume-Uni.
Pour la France, les chercheurs s’accordent à dire que tout, ou presque, reste à faire. « Les accords collectifs qui existent aujourd’hui très insatisfaisants, souligne Barbara Palli. Faire autrement suppose notamment de former les acteurs du dialogue social sur l’intelligence artificielle. À défaut de quoi la perte de confiance sera totale. »
Christine Labbe
« Conventions collectives et intelligence artificielle », table ronde organisée le 26 novembre 2024 par l’Ires et le Mil à l’université Paris-Est Créteil (Upec). Elle s’inscrit dans le cadre de plusieurs projets scientifiques : Iag4Upec et « Collective bargaining and algorithmic management and IA at work », de l’Institut syndical européen.
Ce site utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site web. Parmi ces cookies, les cookies classés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels au fonctionnement de fonctionnalité...
Les cookies nécessaires sont absolument essentiels pour que le site web fonctionne correctement. Cette catégorie ne contient que des cookies qui garantissent les fonctionnalités de base et les fonctionnalités de sécurité du site web.
Ces cookies ne stockent aucune information personnelle.
Les cookies déposés via les services de partage de vidéo ont pour finalité de permettre à l’utilisateur de visionner directement sur le site le contenu multimédia.
Ces cookies nous permettent d’obtenir des statistiques de fréquentation de notre site (ex : nombre de visites, pages les plus consultées, etc.).
Toutes les informations recueillies par ces cookies sont anonymes.