Quelle place occupe l’intelligence artificielle dans le monde du travail ?
La question de la place de l’intelligence artificielle dans le monde du travail constitue un enjeu de politique publique majeur non seulement en ce qui concerne les relations entre l’humain et la machine, mais aussi pour tout ce qui se rapporte à l’organisation et aux relations de travail collectives et individuelles. À bien des égards, la comparaison avec l’introduction de l’électricité sur les lieux de travail pendant la seconde révolution industrielle se justifie. L’IA est une « technologie systémique ». Elle ne fonctionne que si un écosystème complexe comprenant certes des capitaux mais aussi du capital humain et de nouveaux systèmes productifs se met en place. C’est dès lors un chantier nouveau pour le ministère du Travail et stimulant pour les équipes de la Direction générale du travail.
Avez-vous cartographié les cas d’usage de l’IA ?
Un premier travail de cartographie des cas d’usage, y compris dans le monde du travail, a été conduit en 2021 dans le cadre du partenariat mondial sur l’IA, avec plus de 150 cas d’usage répertoriés. Depuis, la dynamique générée par l’irruption de l’intelligence artificielle générative a conduit certains acteurs, sous l’égide du ministère du Travail, à mener des travaux de recherche- action sur le sujet pour étudier les apports de l’IA dans le monde du travail en fonction des cas d’usage.
Avez-vous évalué les conséquences du développement de l’IA sur le travail, l’emploi et les compétences ?
L’OCDE estime que 32 % des emplois seront profondément transformés par le développement de l’intelligence artificielle au cours des 20 prochaines années. Il est donc indispensable de travailler à l’anticipation des conséquences du développement de l’IA sur l’emploi, les compétences, et plus largement le travail et son organisation. S’agissant d’une mutation technologique majeure et en perpétuelle évolution, le choix de prendre appui sur les travaux de recherche-action, à partir de situations de travail rencontrées et de cas pratiques analysés, s’est imposé en coopération étroite avec l’ensemble des acteurs publics et privés concernés.
Outre les travaux internationaux ou universitaires portés notamment par l’OIT (Organisation internationale du travail) ou par l’OCDE (Organisation de coopération et de développement économiques), le ministère du Travail dispose de l’expertise de plusieurs organismes. C’est notamment le cas de l’INRS (Institut national de recherche et de sécurité) et de l’Anact (Agence nationale pour l’amélioration des conditions de travail). C’est aussi le cas d’une démarche engagée en novembre 2021 avec l’Inria (Institut national de recherche en sciences et technologies du numérique) avec lequel nous avons créé le « LaborIA », un laboratoire dédié à l’intelligence artificielle et ses effets sur le travail, l’emploi, les compétences et le dialogue social. Nous participons activement aux travaux du LaborIA, en lien avec nos collègues de la DGEFP (Délégation générale à l’emploi et à la formation professionnelle) et de la Dares (Direction de l’animation de la recherche, des études et des statistiques), et au pilotage de l’action conduite par cette « tête chercheuse pérenne », pour reprendre l’expression de Cédric Villani qui, dans son rapport de 2018, appelait de ses vœux à la création d’une telle structure (NDLR, v. la rubrique Acteurs de l’actualité nº 17546 du 6 avr. 2018).
Comment les entreprises appréhendent-elles le développement de l’IA ?
En l’état actuel des constats, l’IA change le travail et le travail change l’IA. Le développement de l’IA est vécu à la fois comme un sujet d’appréhension et d’opportunité. Au-delà, la prise de conscience est extrêmement diffuse. Selon une enquête menée par l’Unédic auprès de 400 dirigeants d’entreprise, près de huit sur dix considèrent que la transition numérique n’a qu’un impact faible ou nul sur leurs entreprises. Un chantier collectif en termes d’information et de sensibilisation s’ouvre ainsi devant nous.
L’IA présente-t-elle des risques pour les salariés, comme pour les employeurs ?
En effet, le déploiement de l’IA comporte des risques, mais ceux-ci sont bien identifiés. Ceux liés aux atteintes aux droits fondamentaux des salariés sont ainsi déjà protégés et garantis, sous le contrôle de la Cnil (Commission nationale de l’informatique et des libertés), par le RGPD (règlement général de protection des données). C’est le premier « pare-feu ». Le règlement européen sur l’intelligence européen entré en vigueur cet été en constitue un second. Sa particularité est double : il considère les systèmes d’IA comme un produit et procède à leur examen en fonction de la gravité des risques encourus. La mise en œuvre séquencée d’ici trois ans doit permettre aux fournisseurs, aux concepteurs comme aux utilisateurs d’être sensibilisés et formés aux enjeux éthiques de l’IA en termes d’acceptabilité, d’intelligibilité et de transparence. C’est là un enjeu majeur pour le dialogue social et professionnel appelé à être développé et soutenu sur tous les lieux de travail.
Qu’induit le déploiement de l’IA au sein de l’entreprise ?
L’intelligence artificielle, comme toute nouvelle technologie introduite sur les lieux de travail, reste un sujet régi par l’ensemble des règles en matière d’information et de consultation prévues par le Code du travail. En édictant des principes à visée plus large que la seule IA, le cadre juridique existant précise déjà, entre autres, que le CSE assure l’expression collective des salariés en ce qui concerne notamment l’organisation du travail, la formation professionnelle et les techniques de production. Il est informé et consulté dans ce cadre sur l’introduction de nouvelles technologies et tout aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail et impactant l’emploi et les compétences.
Bien évidemment, au niveau national et européen, les partenaires sociaux seront sans doute amenés à réfléchir à l’inscription de cette question à leur agenda social. Cela pourrait participer à la sensibilisation des acteurs au niveau des branches professionnelles et des entreprises. Il est essentiel d’embarquer sur cette question les partenaires sociaux, mais au-delà les dirigeants d’entreprise et les managers de proximité. Les outils concernant le dialogue social technique commencent à se développer. Il reste à accompagner et soutenir ce mouvement à tous les échelons de la négociation collective.
Avez-vous identifié des bonnes pratiques pour l’introduction de l’IA dans le travail ?
Des travaux auxquels nous avons participé, je retiens quelques enseignements.
Quelles que soient la taille ou l’activité de l’entreprise, là où l’introduction du système de l’intelligence artificielle a été faite de manière ouverte en interne, où les responsables des systèmes d’information et les DRH échangent, là où l’on part du travail réel, l’introduction de l’IA ne se heurte pas à un mur de suspicion et au rejet.
Et, dans les cas où les dimensions organisationnelle, éthique et sociale prévalent sur la dimension technique, les conditions de réussite sont davantage réunies.
C’est encore plus vrai lorsque le dialogue social technique conduit à mettre en place un cadre pour l’expérimentation, avec possibilité de mettre en place des « clauses de revoyure » le cas échéant. Le même système d’IA destiné à la maintenance prédictive dans le secteur aérien peut très bien être accepté là où il est rejeté ailleurs, selon la nature du dialogue mis en place pour accompagner son déploiement. Dans le même esprit, l’une des bonnes pratiques réside dans le recours à l’expérimentation. Actuellement, seuls 20 % des SIA passent le cap de l’expérimentation avant d’être déployés. Dans une certaine mesure, c’est un point d’appui permettant d’envisager à terme un déploiement fondé sur le primat d’une logique de dialogue sur tout autre.
Quel est le rôle de l’inspection du travail face aux nouveaux enjeux liés à l’IA ? Quel contrôle la DGT peut-elle être amenée à exercer en la matière ?
L’une des recommandations du récent rapport de la commission interministérielle sur l’intelligence artificielle « IA : notre ambition pour la France » concerne la nécessité d’armer le système d’inspection du travail en formant ses agents, au-delà des agents qui veillent à la prévention des risques en matière de santé et sécurité au travail. C’est le rôle de l’Intefp (Institut national du travail, de l’emploi et de la formation professionnelle) qui forme les agents de contrôle de l’inspection du travail. Cela suppose préalablement que les outils de sensibilisation et de formation à l’utilisation de ces nouveaux outils soient déployés, à l’instar d’Albert, l’intelligence artificielle développée par la Direction interministérielle du numérique (Dinum). Cela suppose également que le cadre d’intervention de l’inspection du travail soit clarifié, à l’instar de ce qui a été fait pour le RGPD, notamment en cas de manquement de l’employeur à ses obligations, en cas de méconnaissance des droits fondamentaux des salariés. La mise en œuvre d’un cadre national déclinant les obligations prévues par le règlement européen sur l’IA devrait d’ici 2025 préciser le rôle et la place dévolus en la matière au système d’inspection du travail.
S’agissant du champ de contrôle mis en place par la DGT, notre action concerne également le respect de la réglementation sur les machines et les équipements de protection individuelle, lorsque ceux-ci sont dotés de systèmes d’IA.
La DGT accompagne-t-elle les entreprises sur le sujet ?
Concernant l’accompagnement des entreprises et des acteurs sociaux, nous travaillons actuellement à préciser à droit constant le cadre réglementaire auquel sont tenus les employeurs en la matière et à favoriser l’appropriation des enjeux, en nous appuyant sur les initiatives locales portées entre autres par les Dreets et le réseau de l’Anact.
Au sein de la DGT, développez-vous l’IA comme outil de travail ?
Nous nous sommes saisis de ces questions depuis plusieurs années. L’examen collectif de l’impact de l’intelligence artificielle sur l’ensemble de notre écosystème nous a conduit à un constat sans doute partagé par l’ensemble des administrations : aucun champ de notre activité depuis l’extension des accords de branche, à la prévention des risques professionnels, jusqu’à la prise en compte des enjeux algorithmiques d’apprentissage automatique (« machine learning ») contenus dans les programmes des machines soumises à un contrôle de conformité n’échappe à la logique de l’intelligence artificielle, avec le même type d’opportunités et de risques rencontré que dans le secteur privé.
Une attention toute particulière est aussi portée à l’apport de l’IA dans notre mission d’accès au droit, que ce soit à travers les nouveaux développements prévus par le Code du travail numérique ou l’appui de l’IA aux services de renseignement du droit du travail de nos services déconcentrés.