Quelles réglementations pour l’intelligence artificielle ?
Mondialement visibilisée par l’accès de ChatGPT au grand public, l’intelligence artificielle nourrit autant de fantasmes que de préoccupations. Si elle peut de toute évidence délester les salariés d’un certain nombre de tâches, elle suscite également des problématiques potentielles pour l’emploi, comme des risques de suppression de postes ou encore une transformation structurelle du travail. En l’absence d’une réglementation adéquate, ces problématiques ne peuvent que s’accentuer à moyen terme. C’est pourquoi la CFTC soutient pleinement la nécessité d’une régulation adéquate de l’IA, au niveau européen.
Collectivement cadrer l’IA
A cet égard, un projet de règlement sur l’intelligence artificielle – proposé en avril 2021 par la Commission européenne – est en cours de négociation entre les législateurs européens. Ce projet classifie les systèmes d’intelligence artificielle selon le niveau de risque pour les droits des individus, de « minime » à « inacceptable ». Les IA présentant un niveau de risque élevé se voient imposées davantage de contraintes et de régulations. Des règles de traçabilité et de transparence – comprenant des obligations de certification, de documentation technique, de qualité et de sécurité – sont ainsi prévues pour les systèmes d’intelligence artificielle qui pourraient présenter un risque élevé pour les droits fondamentaux des individus.
Elles doivent notamment permettre d’encadrer certaines activités particulièrement exposées à une utilisation trop permissive de l’IA, comme la gestion des ressources humaines. Les systèmes d’IA peuvent en effet être utilisés pour évaluer les performances des employés et déterminer des promotions, mais peuvent parfois être influencés par un certain nombre de biais, qui favorisent injustement certains salariés. A titre d’exemple, Amazon avait mis fin en 2017 à l’utilisation d’un système de recrutement automatique, conçu pour sélectionner les meilleurs CV. Cependant, celui-ci s’était avéré discriminatoire envers les femmes : la base de données du logiciel s’appuyait sur les CV reçus par le groupe sur une période de dix ans, qui étaient pour la plupart ceux d’hommes, reflet de la prédominance masculine dans le secteur des nouvelles technologies. Il en avait automatiquement déduit que les candidats masculins pour ces postes étaient préférables.
Anticiper la mutation du travail
Par ailleurs, la nature même de certains procédés d’intelligence artificielle devrait les condamner à une interdiction pure et simple : elle devrait notamment concerner les systèmes œuvrant à une notation sociale des individus, comme ceux qui permettent d’effectuer une surveillance biométrique à distance en temps réel. Les réglementations encadrant les intelligences génératives – comme ChatGPT ou Bard – sont pour leur part encore en discussion au sein des instances législatives européennes. Le Parlement de l’UE (qui vote avec le Conseil de l’Europe la loi européenne) souhaiterait ainsi introduire de nouvelles obligations pour ces procédés d’IA (avec notamment une labellisation obligatoire des contenus créés par une intelligence artificielle). En parallèle, la Confédération Européenne des Syndicats (CES) – dont est membre la CFTC – mène également des négociations et groupes de réflexion, qui devraient participer à renforcer le périmètre réglementaire des usages de l’IA, au sein des entreprises.
Si des garde-fous semblent donc nécessaires pour encadrer l’utilisation de l’intelligence artificielle, l’impact de l’IA sur l’emploi et les conditions de travail semble actuellement difficile à évaluer. Selon une étude de l’OIT publiée en 2023, il pourrait être moins néfaste que prévu, puisqu’elle estime qu’un peu plus de 5 % des emplois pourraient être fortement exposés à l’intelligence artificielle, dans les pays développés. Plus qu’un remplacement massif d’une frange des travailleurs par l’IA, ce sont leurs conditions de travail que celle-ci risque de transformer en profondeur : si l’IA pourra décharger les salariés de certaines tâches répétitives, elle pourrait intensifier et complexifier d’autres versants de leur activité (générant davantage de stress et d’anxiété professionnelle), voire être source d’une perte de sens au travail.
Des risques à prévenir, des progrès à favoriser
Pour la CFTC, les solutions offertes par l’intelligence artificielle ne doivent pas mettre en péril les emplois des salariés ou dégrader leurs conditions de travail. A cet effet, la législation et les règlements appliqués à cette technologie doivent permettre de protéger les salariés des éventuels effets négatifs de son utilisation. Les entreprises devraient symétriquement être encouragées à favoriser l’usage de solutions d’IA bénéfiques pour la productivité et la qualité de vie au travail (automatisation de certains actes pénibles, etc…) Si la CFTC n’élude pas les risques imputables à l’IA, elle considère donc qu’un cadrage adéquat de son développement et de ses usages peut favoriser l’épanouissement professionnel et personnel des travailleurs. Elle rejoint ainsi le constat de France Stratégie, qui estimait dans une étude sur l’IA publiée en 2018 que : « l’amélioration des conditions de travail est une hypothèse aussi crédible que l’intensification du travail. Tout dépend de la manière dont les gains de productivité permis par cette technologie sont partagés. »
Enfin, la CFTC considère que les systèmes d’intelligence artificielle doivent invariablement être supervisés par des humains, plutôt que par l’automatisation. Les travailleurs devraient ainsi être capables d’assurer un contrôle efficient et raisonné des systèmes d’IA dont ils ont l’usage. Une réelle montée en compétence des salariés (liée notamment à l’essor des tâches de supervision ou à la spécialisation vers des missions plus complexes) sera donc nécessaire, via le développement de formations professionnelles qualifiantes.
Retrouvez cet article sur CFTC.fr