Depuis quelques années, l’IA sature notre environnement, s’invitant partout jusque dans nos applications mobiles les plus usuelles comme tout récemment whatsapp. A l’issue d’un stage suivi au centre de formation de la FSU, où nous avons pu entendre le positionnement critique de chercheur-es, en informatique, en sociologie ou encore de syndicalistes, nous souhaitons partager quelques éléments pour ouvrir le débat, au moment où les usages de l’IA dans nos métiers vont être mis en discussion. Cet article ne se veut ni exhaustif ni complet, et nous indiquons des ressources complémentaires pour aller plus loin.
Définition
L’IA regroupe “tout service numérique utilisant des algorithmes probabilistes, reposant sur le traitement statistique de vastes ensembles de données sur lesquels ils sont entraînés, en vue d’imiter certaines facultés cognitives humaines”. Cette définition fournie dans un document de la direction numérique du ministère a le mérite de la clarté. Elle permet ainsi de poser que l’IA n’est pas si nouvelle : née au milieu des années 50, elle a connu une brusque accélération depuis les années 2000 avec le développement d’internet et dernièrement avec l’avènement de l’IA générative, dernière forme d’IA après l’IA prédictive et les systèmes experts, utilisés depuis plusieurs décennies dans les programmes informatiques.
Selon le même document, “l’IA générative regroupe les modèles capables de produire des contenus (texte, image, son, vidéo). Elle se caractérise par sa capacité à être interrogée en langage naturel, comme si l’on s’adressait à un être humain : on parle « d’invite », de « requête » ou de « prompt ». Elle fonctionne en apprenant à partir d’un très grand nombre d’exemples qu’on appelle « données d’entraînement ». Elle est principalement basée sur une conception statistique du langage : elle prédit avec la probabilité la plus élevée le mot suivant, indépendamment de toute capacité de prise de conscience ou de compréhension du contexte. Une IA générative n’est donc pas « intelligente ».” Une IA générative n’est pas non plus un moteur de recherche.
Elle peut générer des informations fausses (hallucinations) et des informations biaisées, car les biais sont présents dans les données d’entraînement. Elle atteint ses limites lorsqu’elle manque de données suffisantes pour fonctionner correctement.
Cependant, la facilité d’usage et les performances de l’IA générative ouvrent un vaste champ de perspectives pour son déploiement dans le secteur professionnel, dans les entreprises comme dans la fonction publique. La question de l’usage de l’IA dans les pratiques pédagogiques est en cours de discussions et soulève de nombreux enjeux. D’autres champs d’application sont envisagés, comme celui de la gestion des ressources humaines.
L’IA et ses effets sur le travail
1/ Le recours à l’IA en question à la DGAFP
La direction générale de l’administration de la fonction publique (DGAFP) a publié en 2024 un rapport établissant sa stratégie d’usage de l’intelligence artificielle en matière de gestion des ressources humaines dans la fonction publique d’État. Ce document s’apparente plus à une plaquette promotionnelle, émaillée de témoignages de hauts cadres de la fonction publique vantant les transformations de l’organisation du travail que pourrait apporter l’IA que d’une feuille de route précise quant à son déploiement. L’idée forte est cependant que “l’utilisation de l’IA est aujourd’hui envisagée en soutien plutôt qu’en remplacement du travail humain sur des tâches spécifiques et non exhaustives d’un métier”, et qu’elle nécessite la mise en place de garde-fous pour faire face aux limites de l’IA : protection de l’agent et de l’administration (notamment avec une utilisation légale et transparente des données), contrôle par l’humain (avec par ex. la déclaration d’utilisation de l’IA ou la liberté des agents d’utiliser l’IA) et des principes déontologiques fondamentaux. En conclusion, la définition de ce cadre d’usage est prudemment renvoyée au dialogue social. Consigne appliquée par nos ministères puisque les premières réunions sont programmées pour cette année.
2/ L’exemple de la DGFIP
Sous l’impulsion des politiques publiques menées depuis les années 2000, la Direction Générale des Finances Publiques (DGFIP) a déjà mis en œuvre depuis dix ans des outils basés sur l’IA, et notamment l’automatisation de tâches, impactant le fonctionnement des services publics. Lors du stage FSU, une camarade de Solidaires Finances Publiques a présenté les impacts de cette automatisation via l’IA sur les conditions de travail des agents.
Les nouveaux agents sont peu ou pas formés, manquent d’informations et sont moins autonomes. Les plus anciens constatent une dégradation des savoirs et une transmission affaiblie. L’IA touche désormais aussi les professions intellectuelles et intermédiaires, entraînant une transformation des compétences requises et parfois une sous-qualification des travailleurs. Les tâches automatisées et parcellisées induisent une perte de sens au travail et une démotivation, illustrée par une augmentation de la charge de travail. Il faut vérifier les erreurs produites par l’IA, ce qui génère une tâche abrutissante.
L’autonomisation ne supprime pas le travail humain mais le transforme. On entend la critique des discours annonciateurs de la disparition du travail au profit des machines. Le remplacement technologique est un mythe. Ce qui n’est pas un mythe ce sont les conséquences sur nos missions de service public.
Elles se traduisent par la déshumanisation, l’éloignement du terrain, l’absence de dialogue social.
Pour les syndicats de la DGFIP, le chantier est considérable pour faire face aux défis posés par l’IA. Quels sont les moyens syndicaux à mettre en œuvre : actions juridiques, utilisation des instances, formation et sensibilisation, plaidoyer pour la transparence et l’explicabilité.
Les limites et les risques
L’utilisation de l’IA générative a des conséquences significatives sur l’environnement et le climat, principalement en raison de la consommation élevée de ressources nécessaires à son fonctionnement.
1) Enjeux écologiques
Les modèles d’IA nécessitent une quantité considérable d’électricité pour fonctionner. Une requête sur ChatGPT consomme dix fois plus d’électricité qu’une recherche classique sur Google, à cause de à la complexité des calculs effectués qui nécessitent des centres de données puissants et énergivores. Selon l’Agence Internationale de l’Énergie (AIE), cette tendance pourrait se poursuivre, augmentant la pression sur les réseaux électriques et contribuant aux émissions de gaz à effet de serre.
Les centres de données utilisés pour l’IA nécessitent aussi une grande quantité d’eau potable pour le refroidissement des serveurs. Cette consommation d’eau est préoccupante, surtout dans les régions où l’eau est une ressource limitée.
La construction et le remplacement du matériel informatique nécessaire au fonctionnement de l’IA impliquent l’utilisation de terres rares. Ces matériaux, essentiels pour la fabrication de composants électroniques, sont extraits de manière souvent non durable, entraînant des impacts environnementaux tels que la dégradation des sols, la pollution de l’eau et la destruction des habitats naturels. De plus, l’extraction des terres rares est énergivore et contribue aux émissions de CO2.
L’augmentation de la demande en IA pourrait exacerber ces effets, rendant la transition vers des sources d’énergie renouvelables encore plus cruciale. Face à ces défis, la sobriété numérique devient une nécessité. Il s’agit de réduire la consommation énergétique et les impacts environnementaux liés à l’utilisation des technologies numériques, y compris l’IA. Cela peut inclure des pratiques telles que l’optimisation des algorithmes pour qu’ils soient moins gourmands en ressources, l’utilisation de centres de données alimentés par des énergies renouvelables, et la promotion de comportements responsables chez les utilisateurs.
2) Enjeux éthiques
La protection des données est un enjeu majeur. L’IA se nourrit de nos données intégrées dans des bases de données, ce qui interroge sur la souveraineté et la sécurité.
La souveraineté des données fait référence au contrôle et à la propriété des données par les individus et les organisations. Lorsque les données personnelles sont collectées et traitées par des systèmes d’IA, il est essentiel de garantir que ces données restent sous le contrôle des utilisateurs. Alors que l’on ignore tout du procédé de la gestion de ces données, les risques d’opacité ne sont pas neutres. Outre les GAFAM qui détiennent et contrôlent une grande partie de ces données, le contrôle exercé par un gouvernement ou une organisation sur les données peut compromettre la protection de celles-ci dans le contexte international actuel.
Les enjeux éthiques liés à l’intelligence artificielle soulèvent des débats sur la protection des droits des travailleurs, notamment dans les pays du Sud. Ces travailleurs du clic, précaires et invisibles, effectuent des micro-tâches en ligne pour des plateformes numériques, telles que la production, l’annotation et le tri des données nécessaires au fonctionnement de l’intelligence artificielle.
Conclusion
Malgré toutes ses limites et les questionnements qu’elle soulève, l’IA s’invite progressivement dans nos milieux professionnels. Bien plus qu’une énième évolution technologique, caractérisée par des enjeux vastes, de ses conséquences sur l’environnement à une réorganisation profonde du travail, notamment dans nos champs professionnels, où la pérennité de certains métiers pourrait être mise en question. En conclusion, nous devons impérativement nous former collectivement sur ses possibilités comme sur ses limites, et surtout à nous mandater syndicalement pour y faire face, au niveau de la FSU comme au niveau du SNASUB-FSU.
Quelques ressources supplémentaires
Sommaire du Convergences N° 307 — Mai 2025
- Édito du numéro 307 – Mai 2025
- En bref
- La politique de rémunération de l’État sous le joug de l’austérité
- Les ministères chargés de l’éducation nationale, de la jeunesse et des sports souhaitent accentuer leur politique RH de proximité
- L’intelligence artificielle et ses enjeux dans les champs de notre action syndicale
- Accord-cadre ministériel relatif à la mise en œuvre du télétravail à l’éducation nationale… Ça bloque pour les personnels exerçant en EPLE ! Inacceptable !
- Le SNASUB-FSU auditionné par l’IGESR le 14 avril 2025 : quel avenir pour les secrétaires généraux d’EPLE ?
- Pour la défense des opérateurs de l’éducation nationale : CANOPE, CEREQ, CNED, FEI, ONISEP
- Le projet ministériel d’un nouveau service départemental en santé scolaire
- Mobilisation devant le rectorat de Toulouse le 5 mai
- Filière bibliothèques : troisième révolution, derniers sacrifiés ?
- Cibler les retraités plutôt que les riches