Avec l’introduction des IA génératives, les activités susceptibles d’être automatisées dépassent les tâches répétitives et non cognitives. Si des chiffres alarmistes circulent quant à l’impact sur l’emploi et le travail, ils relèvent pour l’instant de la prédiction.
Sia pour « système d’intelligence artificielle » : il va falloir s’habituer à utiliser cet acronyme. Et dans ce système, l’IA dite « générative » a fait, en dix-huit mois à peine, une entrée fracassante dans nos vies, en étant capable de « générer », par apprentissage, de nouveaux contenus (textes élaborés, sons, images, vidéos ou codes logiciels), pratiquement indiscernables de contenus réels. ChatGpt (pour Generative pre-trained transformer), puis Midjourney, Bard ou Gemini… la dernière vague d’intelligence artificielle inquiète autant qu’elle provoque un emballement, porté par les campagnes agressives des start-up et multinationales de la tech qui, avides de capitalisme dit « algorithmique », s’en disputent le marché : à l’échelle mondiale, 12 milliards de dollars y ont ainsi été investis en capital-risque, en six mois de développement. Les pays du G7 en soulignent les opportunités, lui prêtant le potentiel d’aider à relever les grands défis mondiaux, comme l’amélioration des soins de santé, voire « la recherche d’une issue à la crise climatique »…
Dans le champ de l’emploi et du travail, cette nouvelle génération d’IA, objet d’un lobbying intense, apparaît de prime abord comme un saut dans l’inconnu, à tel point que près d’un Français sur deux (45 %) se dit inquiet pour son propre emploi (1). Déjà en 2013, deux économistes d’Oxford prédisaient la disparition, aux États-Unis, de la moitié des emplois en vingt ans, du fait de l’automatisation. Comme en 2013, les chiffres les plus alarmistes circulent pour anticiper l’impact de l’IA générative : on évoque le chiffre de 300 millions d’emplois dans le monde qui pourraient disparaître ou être affectés, affirme Goldman Sachs dans une analyse prospective.
Des peurs aussi anciennes que la technologie
Beaucoup plus prudente, l’Ocde (2) évalue à 27 % le pourcentage d’emplois correspondant à des métiers fortement exposés. Avec les progrès accomplis récemment, ce sont désormais les professions plus qualifiées, voire hautement qualifiées, qui sont concernées : comptables, enseignants, journalistes, mathématiciens, avocats, développeurs web, traducteurs, spécialistes des relations publiques…
Dix ans après l’étude d’Oxford, le scénario catastrophe ne s’est pas produit. « Jusqu’à présent, note l’Ocde, l’IA influe davantage sur la qualité que sur la quantité des emplois. » Si elle fait progressivement son entrée dans le monde du travail, dans l’optique le plus souvent de réduire les coûts et d’augmenter la productivité, l’adoption de l’IA par les entreprises reste relativement limitée. Pourtant, les peurs sont tenaces, aussi anciennes que la technologie elle-même, sur fond de querelles entre « techno-pessimistes » et « techno-optimistes ».
Des controverses qui remontent aux luddites
« Dès les années 1970, le débat sur les “systèmes experts”, censés simuler l’expertise humaine, se partageaient entre “promesses” – comme celles de libérer l’humain des tâche pénibles – et “craintes”, en particulier de précarisation et de remplacement massif des travailleurs », explique Moustafa Zouinar (3), ergonome à Orange Labs, lors d’une conférence du Centre d’études de l’emploi et du travail (Ceet) sur les transformations technologiques et l’IA au travail. Entre l’homme et la machine, la lutte est en réalité vieille de deux siècles, comme en témoignent les révoltes luddites de 1811-1817 chez les ouvriers anglais du textile.
Aussi intenses soient-elles, les controverses d’aujourd’hui ne sont donc pas nouvelles, mais alimentées aujourd’hui par de la pure « futurologie ». La critique est formulée par Irénée Régnauld (4), président de l’association Le mouton numérique et chercheur associé à l’université de technologie de Compiègne, qui invite ses interlocuteurs à une démystification de l’IA : « Les débats sont encore trop focalisés sur les risques fantasmés, argumente-t-il. Or, l’intelligence artificielle n’est pas un objet virtuel qui flotte dans le temps. Elle est avant tout une infrastructure à la fois énergétique et sociale, nourrie par les travailleurs du clic. » L’IA générative, même en témoignant d’une vive accélération du progrès technique, s’inscrit dans ce cadre. Auteur de En attendant les robots : enquête sur les travailleurs du clic (Seuil, 2019), Antonio Casilli, professeur de sociologie à Télécom Paris, montre comment ces outils s’appuient en réalité sur du travail humain, souvent gratuit, en tout cas très faiblement rémunéré.
Suis-je encore responsable de mon travail ?
Pour documenter les effets de l’IA sur le travail, la littérature scientifique est abondante, mais les études empiriques sont peu nombreuses. Responsable scientifique du LaborIA, mis en place en 2021 sous l’égide du ministère du Travail, et chercheur à l’Institut catholique d’arts et métiers (Icam) de Toulouse, Yann Ferguson fait partie de ceux qui ont analysé les situations à partir de cas d’usages (3). « Comme sociologue du travail, ce qui m’intéresse c’est l’éthique du travail avec l’IA, a-t-il expliqué devant la Commission nationale de l’informatique et des libertés (Cnil). Cette éthique repose sur deux dimensions qui convergent vers la notion d’autonomie : est-ce que je fais du bon travail ? Est-ce que je me sens encore responsable de ce que je fais et des conséquences de ce que je fais ? Or, les salariés se montrent plutôt inquiets de ce point de vue. Les systèmes d’IA, aussi performants soient-ils, ont en effet porté une proposition organisationnelle de rationalité du travail et de réduction du pouvoir d’agir ». Cette recherche de rationalité est observée dans de nombreux secteurs, dont celui de la santé.
Indépendamment de l’implication des travailleurs et de leurs représentants, les risques et les bénéfices seraient en outre variables selon les individus, leur degré d’expertise et leurs modalités d’usage, concluent provisoirement les études, qui remettent en cause un certain nombre de mythes ou d’idées reçues. D’abord l’IA comme potentiellement stimulatrice de créativité humaine : dans la pratique, le risque est celui d’une harmonisation, voire d’une dilution de cette créativité, notamment avec les grands modèles de langage comme ChatGpt. Ensuite l’IA comme porteuse d’une collaboration fructueuse entre l’humain et la machine, portée par de nombreux discours RH et managériaux : « Cette collaboration reste en réalité très pauvre, prévient Moustafa Zouinar, limitée à une simple répartition de tâches. »
Va-t-on perdre en en apprentissage humain ?
Problème : les capacités de l’IA progressent plus vite que les études voulant en observer les effets. Avec l’introduction accélérée de l’IA générative, certains redoutent une amplification des risques déjà identifiés : opacité, biais, surveillance, protection de la vie privée, sécurité des données… D’autres inquiétudes sont en train d’émerger : elles sont démocratiques, avec les risques accrus de désinformation ; juridiques, avec les atteintes aux droits de propriété intellectuelle ; éthiques, avec les risques de manipulation, ou la menace sur l’apprentissage humain…
Dans les situations de travail, la nouvelle vague d’IA porte également des spécificités : elle est accessible à tous et à toutes, moyennant une simple inscription sur une application, ce qui autorise tous les « bricolages » à partir d’une requête ; disponible sur les ordinateurs depuis novembre 2022, elle est désormais intégrée aux nouvelles générations de smartphones, au risque d’un chaos informationnel et en court-circuitant tous les relais traditionnels : selon une enquêtes Ifop de mai 2023, une majorité d’utilisateurs n’en ont pas informé leur supérieur hiérarchique.
L’IA générative ne brille pas par sa fiabilité
Chez les travailleurs, cela produit déjà une « dissonance cognitive », observe Yann Ferguson : « L’utilisation de ChatGpt, par exemple, peut ne pas passer par le responsable de l’innovation ou de la direction. Par rapport aux systèmes précédents, le top management a donc changé de discours : au “N’ayez pas peur” adressé il y a peu aux salariés a succédé un nouveau message : “Faites attention” ! » L’IA générative, en effet, ne brille pas par sa fiabilité : au total un millier d’incidents et de risques différents, indique l’Ocde, ont été signalés entre janvier et juillet 2023.
Ce manque de fiabilité est d’autant plus problématique que s’élargit considérablement l’éventail des tâches susceptibles d’être automatisées, en dehors des tâches répétitives et non cognitives. Pour des effets encore très incertains : va-t-on perdre en capacité de choix et d’apprentissage humain ? Celui-ci reste un cheminement, fondé sur la compréhension, l’assimilation des connaissance et l’acquisition de savoir-faire.
Ne pas laisser l’innovation technologique entre les mains du marché
Le scenario optimiste voudrait que les salariés soient libérés de tâches dites « ingrates ». Mais avec quel l’impact sur leurs aptitudes cognitives et mémorielles ? Pour quels risques sur la santé physique et psychique ? En outre, l’importance des mutations à venir fait craindre, dans l’immédiat, non pas une disparition des emplois, mais une nouvelle phase d’intensification du travail et de mise en concurrence des travailleurs, entre une élite hautement qualifiée, capable de maîtriser ces « super assistants » et les autres, peu formés, précarisés et mal rémunérés.
Dans ce contexte, l’effervescence entretenue offre au moins l’opportunité de requestionner publiquement l’IA, dont les enjeux restent souvent délibérément confidentiels. La critique a été portée par Sophie Binet, secrétaire générale de la Cgt, lors d’un colloque consacré à l’IA (5) : « Elle fait encore trop peu l’objet de débats collectifs et démocratiques. La question n’est pas de savoir si l’on est “pour” ou “contre” mais de s’interroger sur les finalités : l’IA, pour quoi faire et comment ? L’enjeu est de ne pas laisser l’innovation technologique au seul marché, mais de la piloter pour le progrès humain, social et environnemental. » Par exemple en réduisant le temps consacré au travail ; en décidant des potentiels d’automatisation de certains métiers, non pas à l’aune des possibilités technologiques, mais à partir de choix démocratiques et collectifs. Cela implique une réflexion partout où le syndicalisme est présent : entreprises, branches professionnelles, territoires, niveaux interprofessionnel et national.
C’est une lutte, comme l’ont notamment démontré les scénaristes américains dont la longue grève a abouti à un accord historique, portant notamment sur l’usage de l’IA dans leur métier. Si le syndicalisme a ainsi vocation à intervenir, il est encore souvent tenu à l’écart, ce qui conforte le besoin d’échanger collectivement pour imposer des choix et agir : notamment en renforçant des droits existants, comme celui à la formation ; en négociant de nouveaux droits, comme celui de ne pas être assujetti à la décision d’une machine en dehors de tout contrôle humain. C’est ce qui a été obtenu en Espagne dans le secteur bancaire. Humains ou machines, qui que vous soyez, place au débat !
Flore Barcellini et Moustafa Zouinar, « L’intelligence artificielle au travail : quelles transformations sur les activités professionnelles ? », conférence du Ceet, décembre 2023.
Cnil, « IA et libre arbitre : sommes-nous des moutons numériques ? », novembre 2023.
« Intelligence artificielle : menace ou perspective ? » Colloque Cgt (fédération des Sociétés d’études, Filpac, Infocom), 22 novembre 2023.
Ce site utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site web. Parmi ces cookies, les cookies classés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels au fonctionnement de fonctionnalité...
Les cookies nécessaires sont absolument essentiels pour que le site web fonctionne correctement. Cette catégorie ne contient que des cookies qui garantissent les fonctionnalités de base et les fonctionnalités de sécurité du site web.
Ces cookies ne stockent aucune information personnelle.
Les cookies déposés via les services de partage de vidéo ont pour finalité de permettre à l’utilisateur de visionner directement sur le site le contenu multimédia.
Ces cookies nous permettent d’obtenir des statistiques de fréquentation de notre site (ex : nombre de visites, pages les plus consultées, etc.).
Toutes les informations recueillies par ces cookies sont anonymes.