Le document commence par lister ce qu’est l’IA avant de s’intéresser à ses possibles utilisations et aux risques associés. Au vu des risques identifiés, le rapport relève : « il convient d’encadrer l’utilisation de ces systèmes par des recommandations et des bonnes pratiques». Et propose donc des façons d’y avoir recours dans la pratique professionnelle compatibles avec la déontologie.
Dans un premier volet, le rapport revient sur la conception actuelle de l’IA, où ce n’est plus l’homme qui apprend à la machine. Désormais c’est une conception dite statistique qui prévaut : la machine est entraînée sur de larges jeux de données, une faculté rendue possible par une très grande puissance de calcul. Dans cette conception d’une machine apprenante seule, l’intervention humaine se limite au contrôle des résultats, voire à un système de récompense lorsque le système fournit des bonnes réponses.
Des IAG basées sur des modèles à usage général
Puis le rapport décrit plus avant l’intelligence artificielle générative, capable de générer un contenu créatif (texte, image, son), comme pourrait le faire un humain. L’IA est en effet basée sur ce qui est appelé « des large language model », permettant à la machine de s’entraîner sur des jeux de données non supervisés. Ces progrès ont été rendus possibles grâce à une nouvelle architecture d’IA, c’est-à-dire un autre modèle d’apprentissage. Surtout l’apport de ce nouveau modèle d’IA est selon les rédacteurs « l’attention », c’est-à-dire la capacité de la machine de ne donner du sens à un mot qu’en fonction de son contexte.
Le rapport relève d’abord que l’IAG est basée sur des modèles dits de fondation, à usage général, caractérisés par l’absence de spécialisation. Ce qui peut être préjudiciable au métier d’avocat car non suffisamment contextualisé aux activités juridiques et au corpus de droit continental.
Ces modèles génériques permettent la rédaction de synthèses, de courriers, de posts sur les réseaux sociaux, de traductions, de comptes-rendus de réunions ou de présentations. Plus spécifiquement, pour les activités juridiques, la machine permet aussi de rédiger des brouillons de parties de conclusions ou de consultations, contrats ou clauses.
Des textes d’apparence vraisemblables mais pas forcément véridiques
Les difficultés principales résident dans la génération de textes « d’apparence vraisemblables, cohérents donc véridiques », rendus d’autant plus pertinents que l’IA les produit de manière « assertive ». Le rapport met donc en garde sur l’apparente véracité des textes générés par l’IA qui ne doivent pas dispenser d’un contrôle humain rigoureux. Par ailleurs, il ne faut pas confondre l’IA avec un moteur de recherche, d’une part parce que son rôle est de générer un contenu probable et non vérifié, mais aussi en raison de l’ancienneté des données : des IA non intégrées à des moteurs de recherche n’ont pas accès aux données ultérieures à 2022 ou 2023.
Pour le rapport, si l’IAG peut avantageusement contribuer à certaines activités, il ne peut pas pour autant les remplacer totalement. Notamment parce qu’au-delà de l’absence possible de fiabilité, la machine ne comprend pas ce qu’elle produit, la signification du résultat généré par l’IAG, qu’il s’agisse d’un texte, d’une image ou d’un son, est de la responsabilité de l’humain.
Ensuite, le rapport met en évidence les risques d’imperfection liés à des biais, de conception ou à l’utilisation, liés aux perceptions ou aux préjugés de l’utilisateur. Le CNB alerte notamment sur le risque de perte « de souveraineté et d’influence » du droit continental notamment, qui peut s’expliquer comme l’ont indiqué de nombreux analystes par la prédominance de données nord-américaines sur lesquels les outils sont entraînés.
Enfin, le système peut aussi proposer des réponses totalement erronées dites « hallucinations » qui sont expliquées par le système probabiliste de prédiction. D’autres risques sont listés, comme celui de fuite de données ou de violation des droits d’auteurs.
Le respect du secret professionnel et de la protection des données personnelles
Nous passerons dans cet article sur les recommandations générales du rapport qui s’adressent à tous (maniement du prompt, formation aux outils) pour se focaliser sur celles concernant spécifiquement la profession d’avocat.
Pour utiliser l’IA à bon escient, les exigences légales et professionnelles imposent à l’avocat de respecter le secret professionnel et la protection des données personnelles. Il convient de ne jamais utiliser dans l’IAG « des données couvertes par le secret professionnel à des intelligences artificielles génératives, sous peine de sanctions ». Il est donc interdit à un avocat de communiquer dans sa requête des éléments tels que le nom du client ou des informations stratégiques et confidentielles. Pour y remédier, il est conseillé à l’avocat de travailler avec des jeux de données « pseudonymisées » où les données sont remplacées par de fausses données d’identification. La formulation de requêtes dans l’IA doit aussi être compatible avec les principes fondamentaux du RGPD.
De manière plus discrète, le CNB recommande également de privilégier l’utilisation d’une IA juridique pour générer un contenu juridique « afin que l’apprentissage se fasse sur des ensembles de données diversifiés et représentatifs, garantissant ainsi une couverture complète et équilibrée des sujets juridiques ».
Enfin le rapport recommande de faire preuve de transparence dans l’utilisation de l’IAG en interne. Pour les relations vis-à-vis des clients, le CNB devrait donner des éléments complémentaires prochainement.
Guide pratique – Utilisation des systèmes d’intelligence artificielle générative – Septembre 2024