L’irruption de machines capables de dépasser voire de remplacer l’homme dans certaines fonctions, y compris cognitives, oblige l’humanité à réinterroger sa place dans le monde, au sens existentiel comme pratique.
C’est – toujours – déjà demain. Récurrentes et complexes, les questions que l’humanité se pose face à son avenir et à sa façon d’être au monde n’en demeurent pas moins marquées par les circonstances historiques. Aujourd’hui, l’humanité est non seulement en capacité de détruire son biotope, mais aussi, semble-t-il, de créer des machines qui peuvent résoudre des problèmes complexes et prendre des décisions plus vite et mieux qu’elle.
« Les technologies rassemblées sous le vocable IA nous amènent à réinterroger ce qui définit la spécificité de l’intelligence humaine, insiste Claude Aufort, du collectif recherche Cgt, en introduction au débat sur la place de l’homme. En quoi l’IA peut-elle être un facteur de libération pour l’humain ? Du point de vue des activités humaines et notamment du travail, qui nous préoccupe en tant que syndicalistes, peut-elle nous libérer des tâches répétitives, nous permettre de réduire encore notre temps consacré au travail, d’avoir davantage de temps pour développer nos qualités, notre créativité ? »
L’IA est un outil, à l’humain d’en choisir les usages
Le travail et le rapport de l’homme aux technologies, c’est le quotidien de Charles Lenay, professeur de philosophie et sciences cognitives à l’université de technologie de Compiègne. « L’intelligence humaine est artificielle, l’intelligence artificielle n’est pas humaine, rappelle-t-il d’emblée. La pensée est intrinsèquement liée au fait d’être humain et à celui d’être entouré d’outils. » L’interaction avec l’outil participe à notre façon de nous penser, de penser et de transformer le monde. L’IA est un nouvel outil, qui « arrive en suppléance, en augmentation, mais pas en substitution de l’expérience humaine ». Par exemple, la rétine artificielle permettra sans doute à des aveugles de voir. On imite le processus de vision humaine, mais on crée quelque chose de différent de ce que la biologie a créé.
Par ailleurs, cette technologie ouvre la voie à la tentation d’augmenter les capacités humaines. Pourquoi ne pas envisager de doter, même ceux qui voient, d’aptitudes à percevoir les infrarouges ou les ultraviolets ? De développer des neurotransmetteurs artificiels qui permettraient de transmettre et de stocker les images perçues par ces yeux ultraperformants ?
Reste que si l’IA peut augmenter ou transformer les capacités humaines, elle n’est constituée que de systèmes de traitement de symboles créés par l’homme. Ce dernier devra toujours paramétrer et interpréter : « Les systèmes informatiques ne remplacent pas une présence corporelle, biologique, même s’ils peuvent transformer notre façon d’être humains. »
Très réactive, l’assistance intervient pour faire part de ses nombreuses inquiétudes autour de l’IA : jusqu’à présent, l’introduction de ces technologies dans la sphère du travail a eu des effets plus aliénants que libérateurs, imposant avant tout des procédures, de l’efficacité, pour ne pas dire de la productivité, et se soldant par d’innombrables suppressions d’emplois. De plus, cette fois, l’humanité ne risque-t‑elle de perdre la maîtrise de sa pensée, de son libre arbitre, bref, de son humanité ? Le philosophe qualifie cette crainte de « bluff de la substitution » : nous sommes les seuls à être nous-mêmes, non duplicables.
Certes, l’évolution technologique va plus vite que l’évolution biologique ; certes, la suppléance prendra en charge une partie de la charge mentale sans pour autant nous libérer. Mais même au cas où, un jour, des modifications de l’Adn ou des hybridations avec les nanotechnologies permettraient d’améliorer les performances humaines, ce sera toujours un humain ou une collectivité humaine qui maîtrisera et programmera. Une technique n’est jamais neutre, ses usages encore moins. Si en Europe, souligne un participant, on a toujours été plutôt technophobes, c’est parce qu’historiquement, on a plutôt subi les technologies, mais il n’y a pas de fatalité, on peut imposer des choix et des orientations plus susceptibles d’améliorer le bien-être collectif.
L’humain créateur est immergé dans une société, c’est un être social
Dina Bacalexi, ingénieure de recherche en philologie au centre Jean-Pépin (Cnrs), membre de la Ferc-Sup et du Sntrs-Cgt, intervient sur l’impact de ce contexte sur le monde de la recherche. « Les sciences de l’homme, qui ne sont pas plus humaines ou inhumaines que les autres, n’appréhendent pas l’homme comme l’opposé de la machine, mais, à l’instar des sophistes grecs, comme la mesure de toute chose, que ce soit l’humain créateur (homo faber) ou créature (homo fabricatus). Donc à la fois capable de produire une activité rationnelle, mais aussi être social immergé dans une société vouée au capitalisme. »
C’est dans ce cadre que se développent les « humanités numériques ». Le terme intelligence est déroutant, car il contient une appréciation sur l’organisation, la manipulation et l’évaluation, sans obligatoirement supposer des activités de pensée ou de quête de sens. Intelligere, c’est comprendre et intégrer les mécanismes de la connaissance.
Les activités cognitives seraient-elles ainsi reproductibles grâce à l’IA ? « La machine calcule, produit des résultats mais ne produit pas de pensée, d’analyse, de sens, et n’a pas de volonté propre. » On valorise à l’extrême la modélisation du monde et donc le côté homo fabricatus de ce qui nous définit. Aucun programme de recherche, y compris en sciences humaines, n’échappe plus à son volet « applications technologiques » en particulier quand l’IA est impliquée. Ainsi du « Human Brain Project » lancé en 2013 par l’Union européenne. Il inclut notamment un programme de recherche sur la « reproduction sur ordinateur de l’architecture et de l’activité du cerveau », et décline des projets en « neurobotique » ou en neuromorphic computing. On a les concepts avant la réalité. En revanche, les projets en matière de prévention sociale et éthique n’avancent pas : « L’“innovation responsable”, estime Dina Bacalexi, relève davantage de discours convenus que d’actions identifiables sur le terrain. »
L’IA, comme l’IH, pose davantage de questions qu’elle n’apporte de réponses
Les financements des recherches restent plus que jamais conditionnés à l’exigence de projets limités dans le temps et susceptibles de permettre des applications rapides. Ainsi, des projets dont la pertinence scientifique n’est pas évidente captent des investissements importants : une collecte de la littérature mondiale, ou de la production littéraire, suivie de référencements par des algorithmes, peut-elle suffire à révéler la vie culturelle, l’évolution des échanges intellectuels et des connaissances sur une période donnée ? En revanche, ces recherches permettent avec certitude de créer des banques de données intéressantes voire potentiellement lucratives.
« Nous n’avons rien contre la bibliodiversité ni contre l’hybridation des disciplines et des pratiques, insiste Dina Bacalexi. Nous demandons en revanche davantage de transparence sur les recherches, leurs résultats, les financements, pour garantir la diffusion des problématiques sur ces enjeux et le partage des connaissances au bénéfice de tous. »
Jean-Baptiste Piacentino, directeur général adjoint du moteur de recherche Qwant, explore un autre aspect de ce besoin de réaffirmer la priorité et la liberté des humains : « Nous avons choisi de développer un moteur de recherche qui respecte la vie privée. » Pas d’historique, pas de profilage des utilisateurs. Le moteur de recherche ne se donne pour priorité que la pertinence des sites, en essayant de comprendre et d’extrapoler sur les contenus indexés. « Nous appliquons par exemple un filtre pour l’accès des 6-12 ans à notre moteur de recherche, prenant en compte les caractéristiques éthiques des pages, excluant toute référence au porno, à la violence, à la drogue ou à la haine. Nous utilisons l’IA pour reconnaître les formules et les registres langagiers ou les images. Nous partons aussi du principe que l’absence de profil utilisateur limite les “biais”, qui réduisent l’éventail d’une recherche en proposant à un même utilisateur des pages ou des sources d’information proches de celles déjà consultées, qui finissent par l’enfermer dans une “bulle filtrante” de plus en plus éloignée de la réalité. »
Sont aussi éliminées les pages web qui améliorent leurs algorithmes sur la base de l’entraînement, de la reconnaissance, grâce aux clics, donc à contribution gratuite des internautes. Quant au risque de voir la logique de « substitution » à l’œuvre du point de vue des emplois, « on sait que d’autres emplois vont être créés, mais pas forcément pour les mêmes personnes. Des efforts de formation phénoménaux doivent être accomplis pour assurer une place à tous ».
La machine n’est rien d’autre que ce pour quoi elle est programmée
Xavier Burot, secrétaire fédéral chargé des questions de droits, libertés, action juridique à la fédération Cgt des Bureaux d’études, revient pour sa part sur la nécessité, pour les citoyens, de rester vigilants sur les données récupérées et utilisées par les machines : « Les Gafam s’intéressent à des machines capables de modéliser des scénarios pour pouvoir nous vendre davantage de produits ou de services, mais aussi pour contrôler et orienter nos pratiques quotidiennes dans leur intérêt. »
Les assistants domestiques, par exemple, récoltent toutes les informations personnelles nécessaires à la commercialisation de certains produits sous contrat. L’accès à nos données peut être utilisé à d’autres fins : influencer le vote des électeurs par exemple, comme on l’a vu dernièrement avec l’élection de Donald Trump aux États-Unis. « La machine n’est encore une fois rien d’autre que ce pour quoi elle est programmée et utilisée, estime Xavier Burot. Elle n’apporte pas forcément la réponse la plus pertinente ou la plus fiable, et encore moins la vérité absolue. À nous de reprendre la main. »
Dans le même esprit, Yacine Si Abdallah, intervenant pour la Commission nationale de l’informatique et des libertés (Cnil), rappelle que c’est la mission prioritaire de la Cnil depuis sa création en 1978 : préserver la place de l’homme, dans un cadre démocratique et transparent. Il se félicite des avancées européennes récentes sur la protection des données personnelles et sur le « droit à l’oubli », qui renforce le droit d’intervention des internautes sur les contenus les concernant. La Cnil a également mené des concertations publiques à grande échelle, qui ont fait émerger de nouvelles demandes citoyennes. « Elles ne portent pas sur l’émergence encore hypothétique d’une conscience robotique, mais bien sur le présent. Par exemple, sur l’urgence de veiller au risque de déresponsabilisation de l’humain dans certains métiers – médecins, juges, Drh. Ce sont bien les humains qui doivent assumer l’autorité décisionnelle, même s’ils utilisent des outils et des données pour les y aider. »
L’erreur est humaine, mais la machine se révèle encore beaucoup plus défaillante et univoque… La Cnil entend renforcer son action sur deux principes. D’une part, la loyauté des algorithmes, qui doivent éliminer les arrière-pensées et les biais (racistes, sexistes, sociaux, etc.) et protéger l’intérêt général. D’autre part, la vigilance, pour inciter les acteurs de la chaîne algorithmique, du développeur à l’utilisateur, à prendre conscience des enjeux de leur activité.
Pour Juliette Mattioli, experte en IA chez Thales R&T Palaiseau, l’homme est toujours au centre, et elle s’attache donc tout d’abord à dédramatiser certaines représentations. Rappelant qu’il y a trente ans, lorsqu’elle a commencé à travailler chez Thales, des peurs similaires circulaient autour d’objets qui sont aujourd’hui couramment utilisés et qui ne terrorisent plus personne. « Cela ne signifie pas qu’il n’y a pas de risques, encore faut-il ne pas les fantasmer et ne pas perdre le contact avec le réel », juge-t-elle. Le réel chez Thales, qui tente de placer l’IA au cœur de ses productions, c’est qu’à la différence des Gafam, on fait du business to business et pas du business to client, et qu’on opère sur des systèmes critiques – aéronautique, défense, transports – où des vies sont directement en jeu. Cela implique une responsabilité énorme et des obligations de certification, de qualification et d’explication. Un système d’aide à la décision doit être suffisamment expliqué, à défaut de quoi, sa décision soulèvera davantage de questions qu’il n’apportera de réponses.
Ce niveau de qualité de travail passe, en amont, par les données : il est nécessaire de disposer de données fiables, de bonne qualité, sans biais, équilibrées et pertinentes pour pouvoir apprendre. À défaut, le résultat sera médiocre, approximatif… Embarquer un tel mécanisme dans un avion, ce serait évidemment mettre en cause gravement la sécurité. Alors, un certain nombre de gens travaillent à ce que ces mécanismes, ces algorithmes soient explicables, au sens humain du terme, avec des mots. « Évidemment, cela demande des compétences nouvelles, pas forcément formalisées : comprendre ce qu’est un dialogue, une explication, une argumentation, l’intention de l’interlocuteur. Sinon, on risque des contresens, du genre : “Avez-vous l’heure ? Réponse : oui.” C’est correct d’un point de vue logique, mais pas pertinent au plan humain. »
En fait, l’homme est toujours au centre des mécanismes, et il doit y rester. Encore faut-il préciser ce que l’on entend par là. « Chez Thales, on s’est dit qu’assurer le déploiement de l’IA nécessitait d’abord d’informer voire de former de toute la chaîne à ces technologies, de la production jusqu’à l’utilisation. Ensuite, et de manière générale (pas nécessaire pour Thales), il est nécessaire de promouvoir une acculturation dès le plus jeune âge pour comprendre les mécanismes et les dangers de l’IA. » Le projet, soutenu par la région Île-de-France, d’ouvrir un lycée dédié avec une spécialisation en IA, est un début de ce point de vue.
Enfin, il faut beaucoup démystifier. À titre d’exemple, Juliette Mattioli raconte l’expérimentation menée par Thales avec une population initialement très sceptique vis-à-vis de l’IA, à savoir les juristes. En travaillant ensemble pour construire un outil d’aide à la lecture rapide de gros contrats, cela leur permettait de dégager du temps pour l’interprétation et la décision stratégique. Plus qu’un remplacement, il y avait bien aide à la décision. « De fait, estime-t-elle, il est clair que les métiers vont changer, mais ils ne vont pas disparaître. Cela signifie simplement qu’il va falloir se former tout au long de sa carrière avec des formations et information continues. »
Christine Eisenbeis, chercheuse en informatique à l’Inria et membre du chantier Travail de l’institut de recherches de la Fsu, partage ces interrogations sur la dimension formation et information. Pourquoi parle-t-on si peu de ces enjeux au sein du mouvement syndical, alors même que ces outils modifient d’ores et déjà le travail syndical ? La norme de transparence, des captations automatiques, s’est imposée sans qu’on y réfléchisse et nous a fait abandonner, de fait, le droit d’avoir des lieux propres, où nous puissions dire ce que nous voulons, sans contrôle ni censure. Qu’est-ce qui nous oblige ? Qu’est-ce qui nous amène à utiliser avec joie des outils qui dilatent notre temps de travail, à accepter les fausses évidences péremptoires du genre : « le monde est devenu numérique » ?
« Nous devrions au contraire discuter ces évidences et les outils qui vont avec, avant d’essayer de nous en accommoder, au prix parfois de bricolages solitaires, parfois douloureux ou castrateurs dans notre travail, nos vies. Il est clair que dépasser cette culture de l’acceptation acritique passe par un enseignement de l’informatique à l’école, en termes de bases, de b.-a. bade la pensée scientifique et ce, tout au long de la scolarité. »
Enfin, nous en avons l’expérience, la dématérialisation des tâches ne supprime pas en tant que telle des emplois. En revanche, elle sert souvent d’alibi à des suppressions de postes de titulaires qui sont par la suite, et en nombre quasi équivalent, remplacé par des non-titulaires. « Mais là, indique Christine Eisenbeis, on est dans le domaine de la décision gestionnaire et politique, pas dans celui de l’intelligence, fut-elle artificielle. »
La « plateformisation » des entreprises, cheval de Troie de la précarisation
Jean-Luc Molins, secrétaire national de l’Ugict, membre du collectif confédéral Développement durable, industrie, numérique (Din), estime que l’enjeu central est de savoir comment mettre le numérique au service du social et de la citoyenneté, et comment y travailler en tant que syndicalistes. C’est un axe de travail identifié de longue date par l’Ugict dans la lignée de ses mobilisations autour des mutations du travail, du droit à la déconnexion, et pour construire le numérique autrement. Le site web de l’Ugict qui porte ce nom témoigne de la richesse de la production revendicative sur ce terrain. Si l’on considère que l’IA, c’est de l’algorithme, des data et de la probabilité, il faut repartir de ces trois éléments pour interroger la nature et le rôle de l’IA, déterminer si l’on en fait une aide ou un substitut. Quelle place donne-t-on à l’algorithme dans le travail, qui l’édite et qui le contrôle, sur la base de quels critères ?
Partir de ces questions permet d’inverser des évidences qui n’en sont pas. On dénonce souvent par exemple le flicage des salariés par les algorithmes ; mais ne pourrait-on pas, à l’inverse, les utiliser pour « tracer » l’activité des entreprises, les conditions sociales et environnementales de leurs fabrications ? Poser ces questions en ces termes serait poser les enjeux de responsabilité sociale et environnementale en termes redoutablement offensifs. Les questions d’éthique sont souvent revenues dans les échanges, confirmant les enseignements lancinants du baromètre annuel Ugict sur l’état d’esprit des cadres : 54 % d’entre eux déclarent rencontrer des problèmes d’éthique, et 59 % soutiennent notre revendication d’un droit d’alerte pour refuser de mettre en œuvre une consigne contraire à l’éthique.
Enfin, le dernier mot doit revenir à l’humain. La machine peut assimiler des données, pas toujours fiables, elle peut assimiler, digérer et traiter du travail, mais l’algorithme n’a pas de problèmes éthiques et est incapable d’inscrire le travail dans le contexte humain, social et écologique qui lui donne du sens. Face à cela, les enjeux de formations sont évidemment fondamentaux dans la mesure où ce ne sont pas seulement les métiers qui évoluent mais aussi l’utilisation des outils, ce qui est une dimension nouvelle. Aujourd’hui, même quelqu’un qui maîtrise son métier doit pouvoir se former pleinement à l’utilisation des nouvelles technologies pour le pratiquer. Enfin, vous trouverez sur le site de l’Ugict, Lenumeriqueautrement.fr, 24 propositions sur tous ces enjeux qui sont largement soumises au débat.
Dans la salle comme en tribune, s’exprime le souhait que le principe de réalité s’impose. L’IA contribuera peut-être à éclairer sous un autre jour ce que c’est qu’être humain, mais elle est encore loin de construire des liens affectifs, de l’empathie. Elle ne nous garantira la possibilité d’être plus libres que si nous le décidons.
L’intervention de Philippe Martinez
Le secrétaire général de la Cgt salue tout d’abord l’initiative, en rupture totale, souligne-t-il d’avec l’image caricaturale trop souvent donnée d’une Cgt arc-boutée sur le passé et refusant de débattre de l’avenir. La Cgt s’intéresse en fait à tout ce qui concerne le monde du travail et son avenir. « Parce que nous sommes une organisation moderne, bien dans notre temps, les enjeux de l’IA ont toute l’attention de la Cgt. C’est normal et heureux. Car les questions soulevées sont importantes : quels moyens donner à la recherche et aux chercheurs, qu’il faut dégager de cette course permanente et désespérante aux financements ou de la tentation de l’expatriation ? Comment assurer l’indépendance industrielle, combler les retards pris dans des productions stratégiques, notamment au regard des enjeux de défense nationale ? »
Au-delà, les questions environnementales sont posées : ces technologies ont un impact, singulièrement dans les pays dont les gouvernements sont autoritaires ou climatosceptiques… Si nous ne nous en occupions pas, si nous laissions ce terrain à d’autres sans nous en mêler, soyons certains qu’ils s’en occuperaient seuls et de la plus mauvaise façon.
Le dossier de l’IA met en jeu l’ensemble de nos relations économiques, commerciales, sociales, culturelles… Tout cela est à la fois essentiel et nouveau : « Il s’agit pour nous de comprendre, donc d’écouter. Il nous revient de nous faire une opinion, de départager les mythes des réalités », avec comme préoccupation majeure d’éviter et de contrer les reculs sociaux présentés une fois de plus comme inévitablement portés par les seules ruptures technologiques… « Cette démarche rejoint ce qui fonde notre identité syndicale. Nous devons souligner, dans chaque débat public, sa nécessaire dimension sociale : le contenu du travail, du sens qu’on lui donne, la place des qualifications et de la formation, le “bien travailler” et les questions éthiques que chaque révolution scientifique porte en elle. Nous sommes, de fait, au cœur du thème central qui sera débattu lors de notre prochain congrès confédéral. »
Maîtriser ces enjeux dans leur globalité relève donc bien de la responsabilité syndicale de la Cgt. Cette initiative en témoigne et nous pouvons en être collectivement fiers.
Ce site utilise des cookies pour améliorer votre expérience lorsque vous naviguez sur le site web. Parmi ces cookies, les cookies classés comme nécessaires sont stockés sur votre navigateur car ils sont essentiels au fonctionnement de fonctionnalité...
Les cookies nécessaires sont absolument essentiels pour que le site web fonctionne correctement. Cette catégorie ne contient que des cookies qui garantissent les fonctionnalités de base et les fonctionnalités de sécurité du site web.
Ces cookies ne stockent aucune information personnelle.
Les cookies déposés via les services de partage de vidéo ont pour finalité de permettre à l’utilisateur de visionner directement sur le site le contenu multimédia.
Ces cookies nous permettent d’obtenir des statistiques de fréquentation de notre site (ex : nombre de visites, pages les plus consultées, etc.).
Toutes les informations recueillies par ces cookies sont anonymes.