Sommet sur l’IA : « Il faut adapter l’intelligence artificielle au monde du travail, pas l’inverse »

La CFTC et les autres partenaires sociaux ont notamment débattu de cette question : comment intégrer l’intelligence artificielle aux différents corps de métiers, sans porter atteinte aux conditions de travail des salariés, voire en les améliorant ? Investi par la CFTC sur les questions d’IA et représentant de notre organisation lors de ce colloque, Jean-Marc Cicuto dessine ici de premiers éléments de réponse.
Jean-Marc, quelle vision de l’intelligence artificielle et de son intégration en entreprise la CFTC a-t-elle pu défendre, lors de ce débat ?
Evidemment, beaucoup de syndicats se sont positionnés sur l’arrivée de l’IA et ses conséquences. Parfois assez génériquement, mais à la CFTC, je dirais qu’on a une approche plus séquencée du sujet.
C’est-à-dire ?
Nous aimons bien articuler la question de l’IA autour de 3 grands piliers thématiques : l’éducation, la formation et l’investissement. S’agissant de l’éducation, on sait que les élèves utilisent effectivement l’IA à l’école, comme aide pour faire leur devoir par exemple. Ça convoque, déjà, un certain nombre de sujets : pour qu’une IA vous donne de bonnes réponses, il faut savoir lui poser de bonnes questions. Pour ça, il faut savoir prompter correctement (NDLR : un prompt est une instruction textuelle rédigée par un humain et transmise à une IA générative, afin d’interagir avec elle)
Or, bien utiliser un prompt, ca s’apprend. Maintenant, à quel âge devons-nous inculquer ce savoir à nos enfants ? Au primaire, au collège, au lycée, voire à l’université ? Qu’en est-il, aussi, du rapport de l’IA aux professeurs: sont-ils formés aux outils qui permettent de détecter que des élèves utilisent de l’IA, savent-ils l’utiliser eux-mêmes, et à bon escient ? Pour la CFTC, ce sont des questions auxquelles il va falloir répondre rapidement. Ensuite, il faut aussi savoir de quoi on parle exactement, quand on utilise ce terme d’IA.
Généralement, on l’utilise pour qualifier les IA dites « génératives », comme ChatGPT ou Midjourney.
C’est effectivement une composante importante de cette technologie. Cette IA générative a une approche globalisante. On peut demander à une IA qui n’est pas spécifiquement conçue pour le secrétariat de rédiger un courrier, par exemple. Il existe cependant un autre versant de l’intelligence artificielle, qu’on pourrait qualifier de « spécifique ».
Elle caractérise l’IA rattachée à un métier ou un secteur : on peut penser à l’IA souvent utilisée par les radiologues, pour déterminer les limites d’un organe ou d’une lésion sur une image. Je vous donne un autre exemple : dans la logistique, les préparateurs de commande de Lidl doivent aujourd’hui bien souvent suivre les ordres d’une commande vocale : l’IA leur dit littéralement ce qu’ils doivent faire. Ici, l’IA accentue clairement la pénibilité, voire prive même le métier concerné d’une partie de son sens.
L’IA engendre justement un certain nombre de peurs, liées aux millions d’emplois qu’elle serait susceptible de supprimer.
Oui, ces inquiétudes sont légitimes. Les chiffres varient beaucoup, on peut par exemple citer ce rapport de 2023 de Goldman Sachs, qui évoquait une suppression de 300 millions d’emplois dus à l’IA, d’ici 2030. Nous savons que l’IA impactera un certain nombre de métiers, certes, mais lesquels ? Avec quelle magnitude, à quels degrés?
A cet égard, la CFTC demande à ce que soit rapidement ouvert dans les branches des négociations qui permettraient de détecter les métiers les plus impactés, d’évaluer leur degré de transformation : il faut savoir, pour chaque métier, comment et si l’IA peut accompagner le travailleur – constituer un plus dans son activité – ou alors si elle est susceptible de complètement le remplacer. Cette évaluation constitue, en somme, la base, le socle des politiques qu’il faudra mener pour adapter l’IA au monde du travail, et pas l’inverse.
L’étape suivante, c’est la formation ?
Exactement. Une fois qu’on aura identifié les métiers impactés, on pourra – dans les branches professionnelles et les entreprises – déterminer quelles actions de formation mettre en place. En premier lieu, pour intégrer harmonieusement l’IA à un métier. En second lieu – si ce métier est voué à disparaitre – pour former en amont les gens, afin qu’ils puissent acquérir des compétences qui leur permettront d’opérer une transition vers d’autres métiers. Il faut par ailleurs souligner que l’IA ne va pas seulement détruire des métiers, mais aussi en créer.
Le quasi monopole américain sur l’IA génère lui aussi des inquiétudes. Le retard qu’a pris l’Europe sur ce terrain est-il seulement réversible ?
Faisons d’abord un état des lieux des forces en présence : l’IA est d’abord fonction d’une puissance de calcul et de stockage, qu’il faut pouvoir mobiliser. Les 500 milliards de dollars que Donald Trump a annoncés fin janvier investir dans l’IA d’ici 2029 le seront dans des super-calculateurs et d’immenses centres de données. Aujourd’hui, il y a déjà 5200 data centers aux USA. En outre, les GAFAM ( Google, Apple, Facebook , Amazon et Microsoft) – soit les 5 géants qui dominent le marché du numérique – sont tous américains.
Les Européens ont, pour leur part, trop peu de data centers (NDLR : la France et l’Allemagne en dénombrent respectivement 315 et 520), et n’ont pas d’entreprises équivalentes aux GAFAM. L’Europe sait en revanche créer des start up de haute technologie – les fameuses licornes – qui pèsent parfois un peu plus d’un milliard d’euros. C’est très bien, mais on les revend bien souvent aux Américains. En somme, rien n’est irréversible, mais l’IA américaine, c’est un TGV lancé à pleine vitesse. L’IA européenne, c’est encore un train à vapeur… Il va donc falloir vite changer de moteur, si on ne veut pas se faire définitivement distancier.
Comment l’Europe peut-elle donc s’extraire de sa dépendance aux Etats-Unis, vis-à-vis de ces technologies ?
En misant sur le 3ème grand enjeu que la CFTC rattache à l’IA : l’investissement. L’Europe doit assumer de faire des investissements très lourds, pour d’une part augmenter la puissance de stockage concentrée dans l’UE, et d’autre part encourager et aider à la création d’équivalents européens aux GAFAM. Développer des solutions d’IA européenne, c’est aussi s’assurer que ces technologies là respectent nos cadres, réglementations et principes éthiques.
L’IA est très énergivore. Elle convoque également des problématiques écologiques importantes, non ?
Absolument. Dans un contexte planétaire où les ressources sont limitées, on peut penser que les pouvoirs publics pourraient, par exemple, être amenés à rendre des arbitrages entre ce qui constitue les usages prioritaires de l’IA (santé, environnement, services publics, souveraineté industrielle) et ses usage plus périphériques, afin de limiter les émissions en CO2 associées à ces technologies. Tout cela s’annonce complexe, mais, puisqu’on parle d’écologie, je crois que l’intégration de la transition écologique à l’activité des entreprises peut justement servir de modèle, s’agissant de l’IA.
C’est-à-dire ?
Lorsque les émissions de CO2 ont commencé à devenir un enjeu de société majeur, les entreprises ne se sont pas tout de suite pleinement emparées de ces problématiques. Le dialogue social non plus. Ça a été progressif – ça l’est toujours d’ailleurs – mais on a désormais des exemples de progrès écologiques concrets, facilités et accélérés par le dialogue social. Pour qu’un cadre réglementaire commun puisse permettre de progressivement traiter les enjeux de l’IA en entreprise, la CFTC appelle ainsi à la négociation d’un accord national interprofessionnel, qui serait consacré à l’intelligence artificielle.
Retrouvez l’article sur CFTC.fr