Charte éthique et IA en entreprise : un document pour cadrer les pratiques en interne en constante évolution


Charte éthique et IA en entreprise : un document pour cadrer les pratiques en interne en constante évolution
Une charte éthique pour encadrer l’usage de l’IA. Des entreprises et professionnels du droit ont mis en place un tel document pour encadrer l’usage de l’intelligence artificielle, et ne pas se faire déborder par la technologie. Il sert alors de cadre aux modes de fonctionnement internes et également de promotion auprès de son écosystème. Faut-il se lancer dans une telle rédaction quand on ne l’a pas encore fait ?

Nécessité de poser un cadre au vu des usages

Selon Frédéric Lefret, dirigeant d’un cabinet de conseil en stratégie d’usage IA, qui accompagne entreprises, médias et collectivités dans leur feuille de route de déploiement de l’intelligence artificielle, la réponse est oui! « Les dirigeants doivent s’emparer du sujet, ne serait-ce que parce qu’on estime à 23% des effectifs les collaborateurs qui utilisent des solutions IA sans le mentionner à leur entreprise. » Même si il faut distinguer selon lui les IA ouvertes des IA fermées, ces solutions internes à l’entreprise qui ne vont traiter que les data à l’intérieur des serveurs de l’entreprise.

Une fois le besoin défini, s’accorder sur les principes à y mettre peut prendre du temps. Predictice, une legal tech qui a créé la première IA Générative juridique pour les professionnels du droit, a lancé un groupe de travail pour élaborer une charte avec 10 cabinets d’avocats qui sont aussi ses clients. Le document promeut une utilisation raisonnée de l’intelligence artificielle.

« Nous avions lancé une première charte sur la justice prédictive avec un comité d’experts indépendants en 2018, document depuis dépassé par les évolutions technologiques. Nous avons élaboré une nouvelle charte spécifique à l’IA générative qui est le nerf de la guerre », relate Vivien Douard, Content Marketing officer chez Predictice. Quant au contenu de la charte, articulée autour de quatre principes, il relate : « Quatre principes clés sont listés dont celui de compétence qui insiste sur la nécessaire relecture critique par les avocats des résultats générés par l’IA. Cela permet de rappeler aux signataires que l’IA est bien un complément à l’expertise humaine et ne vient pas la remplacer, et qu’en cela, la vérification humaine est indispensable.  Puis il y a le principe de transparence, de mise quant à l’utilisation de l’IA dans le nombre d’heures facturées ». La start-up insiste : « ces principes garantissent une utilisation de l’IA générative conforme aux normes éthiques et légales qui encadrent la profession d’avocat, afin de préserver l’intégrité et la confiance dans le système judiciaire ».

Pour Frédéric Lefret, la transparence est fondamentale. « Expliquer comment on utilise l’IA, c’est pousser le curseur de la transparence. Il y a aussi le sujet de la propriété intellectuelle des éléments générés par l’IA ». Au-delà des principes, la charte doit selon lui donner des précisions sur la chaine de responsabilité : « Si il y a un souci, une erreur d’analyse, qui est responsable ? Dire c’est la faute de l’IA, ça marchera une fois, pas deux. ». Pour le dirigeant, il est possible de l’élaborer rapidement, de concert avec la Direction Générale, la Direction Juridique, l’IT, le DPO. Mais dans la réalité pour les travaux engagés par les grands groupes ce processus d’écriture puis de validation peut prendre des mois.

Chez l’entreprise de services numériques Capgemini, mettre au point une charte sur l’utilisation de l’IA aura nécessité deux ans d’élaboration. « C’était une commande de la Direction générale, du CEO de l’époque Paul Hermelin », se remémore Anne-Violaine Monnié-Agazzi, Chief Ethics Officer du groupe. « En 2019, nous étions parmi les premiers, un peu comme pour les réflexions sur la RGPD ». De manière opérationnelle, la démarche de construction a d’abord consisté à faire des benchmarks et à prendre le pouls des métiers. « Une des valeurs cardinales de Capgemini c’est l’humilité. Au lieu de partir d’une page blanche, on a d’abord fait un benchmark des entreprises concurrentes, de notre écosystème. On s’est inspiré des travaux du groupe d’experts européen Trustworthy IA. Puis on a échangé avec nos différents métiers pour connaitre leurs usages réels de l’IA. ».

Le document met au cœur la culture éthique du Groupe dans son rapport à l’IA. Les deux principes liminaires sont structurants : l’impact clairement délimité de l’IA sur la société « AI carefully delimited impact » et le choix d’une IA responsable pour limiter les répercussions sur l’environnement. Les principes sont accompagnés de cas d’usage, qui témoignent d’une charte pensée pour être mise en œuvre opérationnellement.

Rôle contraignant limité

En effet la mise en œuvre opérationnelle, c’est parfois là que le bât blesse.

« Une charte sur l’usage de l’IA, c’est le reflet de valeurs, un cadre de référence, de bonnes pratiques, un engagement volontaire, cela n’a pas de valeur juridique contraignante », reconnait Viven Douard. Tout comme les chartes éco-responsables ou autre document de bonnes pratiques, elle sert davantage à anticiper en amont les usages des collaborateurs. Mais selon Frédéric Lefret, il est possible d’aller plus loin. « On doit ajouter la charte éthique au règlement intérieur de l’entreprise, ce qui conduira à être discutée en CSE ». Et à faire l’objet de sanctions en cas de non-respect.

En effet les tribunaux peuvent prendre en compte ces chartes lorsqu’elles sont incluses dans les règlements intérieurs, elles deviendraient alors opposables aux salariés. Mais dans la pratique, ce cas de figure paraît rare.

Outil de réassurance vis-à-vis des clients

Les chartes peuvent aussi servir d’outil de promotion externe, et montrer aux entreprises clientes qu’un traitement responsable et protégé est fait des données. « C’est d’abord un engagement d’entreprise qui doit être décliné en interne. A l’époque de la publication de notre charte, un message de la direction générale a appuyé le document en demandant à le cascader. Mais on a également publié le document sur le site externe dès sa validation », confirme Anne-Violaine Monnie-Agazzi, la Chief Ethics Officer de Capgemini.

Pour Predictice, il est nécessaire d’établir de tels documents pour donner une réassurance aux clients des avocats et juristes. « Sinon les clients vont recevoir des réponses sans en connaître les sources. Le document est à la fois un engagement en interne et vis-à-vis des clients », souligne Vivien Douard.

 Un document à faire évoluer

Les chartes ont été écrites pour la plupart avant le règlement européen. « Cela témoigne de notre attention à l’éthique », souligne la Chief Ethics Officer de Capgemini. « L’éthique a précédé le droit en quelques sorte ».

Selon Frédéric Lefret, « ce n’est pas parce que le règlement européen est adopté que le débat s’arrête ».

Anne-Violaine Monnié-Agazzi, abonde, et pointe la nécessité de continuer à faire évoluer les documents existants. « Il y a une réflexion à porter sur la mise en conformité avec l’AI Act. La technologie évolue très rapidement, le document n’est pas figé. Ce ne sont pas des règles écrites noir sur blanc, mais aussi un document qui incite au questionnement de ses pratiques individuelles ».

Marine Landau
Journaliste