Les journalistes refusent d’être vampirisés par l’intelligence artificielle

L’IA se propage dans tous les espaces professionnels, et les médias ne sont pas épargnés. L’arrivée de ce nouvel outil annonce des bouleversements analysés par le Snj-Cgt et pour lesquels il propose des pistes d’action.

Édition 067 de [Sommaire]

Temps de lecture : 6 minutes

La Maison de la radio était bondée, cette année, pour le festival Médias en Seine, coorganisé par Radio France et le groupe Les Échos-Le Parisien. Et si cette 7e édition a attiré une foule inhabituelle, ce n’est sans doute pas étranger au thème dominant les ateliers cette année  : l’intelligence artificielle (IA), sa présence croissante dans les rédactions, son potentiel et ses dangers. 

Dans un contexte de crise de la presse, de précarisation des journalistes et de montée de la désinformation, les interrogations sont nombreuses sur la régulation de cette technologie qui pose de sérieuses questions éthiques.

Une profession déjà en recul

L’IA est très utilisée pour produire les versions audio des articles de presse. Les textes, intégralement restitués par des voix de synthèse, deviennent accessibles à un public élargi, sans altération du sens ni de la forme. Mais c’est déjà une manière de rogner sur l’emploi, une question au cœur des préoccupations. 

En décembre 2024, dans une contribution pour la Cgt, le Syndicat national des journalistes (Snj-Cgt) a souligné que l’IA arrive « dans un contexte de profonde crise de la presse » alors que les effectifs des journalistes ont déjà reculé de 8  % entre 2013 et 2023. Pour le syndicat, l’automatisation de tâches telles que la mise en page, la relecture, la traduction ou la création de contenus factuels fait planer la menace de suppressions de postes, fragilisant des équipes déjà pressurées.

Automatisation du secrétariat de rédaction

Plusieurs entreprises de presse expérimentent déjà l’automatisation du secrétariat de rédaction. Dans le groupe Ebra (Le Progrès, Les Dernières Nouvelles d’Alsace, Le Républicain lorrain…), l’IA est utilisée pour améliorer la syntaxe et corriger l’orthographe des correspondants locaux. La direction a beau affirmer que ses promptsc’est-à-dire les instructions données à l’IA – sont désormais «  performants  », les syndicats ne désarment pas. « C’est en réalité la dernière étape d’une déqualification du travail  », alerte le Snj-Cgt. 

De son côté, le groupe Centre-France (La Montagne, La République du Centre, L’Yonne républicaine…) a lancé un outil d’aide que ses journalistes peuvent consulter sur les questions juridiques, orthographiques et déontologiques. Nommé «  CharteGpt  », parce que fondé sur les «  chartes  » du journal, la direction du groupe veut y voir «  un levier d’efficacité et de qualité, un outil qui vient en support des rédactions  ».

Pour le Snj-Cgt, l’automatisation des tâches risque d’éloigner les journalistes du terrain, de les transformer en auxiliaires de l’IA et de réduire leur marge de manœuvre créative. Le résultat serait une augmentation des contenus standardisés qui, combinée à une baisse des salaires et à une précarisation des contrats, aurait des conséquences désastreuses sur la motivation de ces salariés. Quant aux lecteurs et plus généralement aux citoyens, c’est eux qui, in fine, auraient à subir la baisse de la qualité de l’information, avec des interprétations biaisées.

Les biais de l’IA plombent la diversité et l’impartialité

Les biais, justement, sont un autre sujet majeur de préoccupation. En fonction du matériau de base sur lequel ils ont été entraînés, les algorithmes peuvent générer des rédactions tendancieuses, lacunaires, ou véhiculant des stéréotypes, faussant la représentation de certaines opinions, populations et enjeux sociaux. « La presse risque de devenir la caisse de résonance de ces biais » cingle le Snj-Cgt, qui dénonce le manque de «  visibilité sur les jeux de données sur lesquels s’entraînent les modèles d’intelligences artificielles  ». 

Et le syndicat de citer L’Est républicain, où l’IA a introduit des changements «  subtils  » dans les textes, parfois «  jusqu’à l’absurde  », par exemple en louant l’habileté d’un malfrat à l’occasion d’un fait divers. 

La réécriture des textes des correspondants locaux peut aussi aboutir à des contresens. L’un d’eux a signalé que sa phrase « Un coup d’envoi réussi pour les bénévoles du comité des fêtes, qui ne ménagent pas leurs efforts tout au long de l’année » était devenue « Un démarrage enthousiasmant pour les bénévoles engagés toute l’année dans l’organisation de cet évènement ». Comme s’ils avaient passé «  toute l’année  » à préparer un loto… Un secrétaire de rédaction n’aurait pas commis cette erreur. 

Comment s’assurer que l’IA ne censure pas certaines informations  ?

Les « hallucinations », ces passages absurdes créés par l’IA, sont un autre danger. Les grands modèles de langage (large languages models, ou Llm) font des analyses quantitatives des signes composant les textes, sans en saisir ni le sens, ni les sous-entendus ironiques, ni la différence entre le premier et le second degré. Leurs réponses reposent sur la probabilité qu’une suite de signes corresponde à une entrée donnée. Le rapport du Snj-Cgt souligne qu’ils «  hallucinent en permanence et que leur réponse est parfois bonne  ».

Le manque de transparence dans la conception des algorithmes pose un problème de confiance. Comment s’assurer que l’IA ne censure pas certaines informations, ne favorise pas certains points de vue ? Dans un contexte de défiance croissante envers les médias, il est essentiel de garantir l’impartialité de l’information, et de rappeler que la langue, la sémantique utilisées sont aussi des choix éditoriaux.

La propriété intellectuelle et la captation de la valeur

Vient ensuite la question de la propriété intellectuelle, au cœur de la guerre entre la presse et les grands groupes technologiques depuis des années. La puissance prédictive d’une IA dépend de son entraînement sur de vastes bases de données, souvent constituées d’articles de presse et d’images protégés par le droit d’auteur. Le Snj-Cgt dénonce une «  vampirisation du travail vivant de milliers de personnes par une petite minorité d’acteurs technologiques  ». Plusieurs journaux états-uniens, dont le New York Times, ont attaqué en justice pour ce motif.

Certains médias français ont choisi de signer des accords pour autoriser l’utilisation de leurs contenus – Le Monde l’a fait au printemps 2024 avec OpenAi, la maison-mère de ChatGpt. En contrepartie, ils touchent une rémunération au titre des «  droits voisins  ». Cependant, d’autres acteurs, à l’instar de Mediapart, refusent ces accords, tant que les Gafam ou OpenAi et ses semblables ne seront pas plus transparents sur la richesse tirée de ces données.

Le Snj-Cgt s’interroge sur la répartition des gains  : «  Avant de voir leurs effectifs fondre peut-être, ces salariés-auteurs récupèrent une partie du “gâteau” à travers la négociation de droits voisins. Quid du risque de diviser le monde du travail entre producteurs intellectuels (moins nombreux, mais qui toucheraient des primes importantes, en dépit du fait qu’on puisse les juger insuffisantes au regard du “pillage” que représente l’IA) et, de l’autre, les travailleurs “classiques” ?  » À ces questionnements s’ajoutent ceux sur les droits d’auteur des pigistes et des anciens salariés dans ces dispositifs.

La réponse syndicale  : mobiliser et négocier

Face à ces défis, la mobilisation des journalistes et de leurs syndicats est indispensable. Le Snj-Cgt rappelle qu’il est crucial de négocier des accords avec les directions pour encadrer l’utilisation de l’IA, afin de garantir la transparence des algorithmes, protéger les emplois et préserver la qualité de l’information.

Il appelle à « une information-consultation à la hauteur de l’enjeu » et revendique le « partage des gains de productivité, avec création de nouveaux droits ». À France Télévisions, la Cgt a même relancé l’idée d’une réduction du temps de travail. Le syndicat a distribué un questionnaire pour cartographier l’utilisation de l’IA dans les rédactions et proposer des outils de veille et des ressources pour les élus.

Au-delà des revendications matérielles, il s’agit de repenser le métier de journaliste à l’ère de l’IA. Comment utiliser l’outil pour enrichir l’information, ne pas perdre de vue son utilité sociale et démocratique, renforcer la proximité avec le public et favoriser la participation citoyenne ? Comment développer des compétences pour maîtriser les algorithmes, vérifier les sources et lutter contre la désinformation ? La charte de Paris sur l’IA et le journalisme brasse ces questions et préconise une «  gouvernance  » partagée de l’IA et des standards d’utilisation, mais elle demeure non contraignante… à moins d’une mobilisation collective des journalistes.

Lennie Nicollet