Divulgation involontaire de données
L’utilisation d’une IA générative renvoie à un problème de stockage externalisé. En effet, 87 % des IA Gen grand public utilisent des serveurs hors UE, exposant les données à des juridictions étrangères. Le risque est d’autant plus accru qu’il y a une réutilisation des données puisque les requêtes (« prompts ») sont souvent conservées par les fournisseurs pour entraîner leurs modèles (ex. : ChatGPT par défaut). Les données ainsi conservées sont susceptibles d’être « régurgitées » lors de l’utilisation ultérieure du système par un autre usager[1].
Les systèmes d’IA Gen font par ailleurs l’objet de menaces spécifiques en matière cyber, augmentant corrélativement le risque de perte de contrôle sur les données. L’ANSSI décrit en effet trois catégories, celles par manipulation, celles par infection et celle par exfiltration[2]. Parmi elles, on retrouve notamment les techniques de prompt injection, qui consistent à pousser le système, par le biais d’un prompt, à générer du contenu indésirable, trompeur, ou potentiellement nuisible[3].
Hallucinations et fiabilité limitée
Les IA peuvent générer des « hallucinations » (résultats erronés ou faits imaginaires qui n’ont aucun fondement dans les données d’entrainement) comme la production de jurisprudences fictives, (lorsqu’un avocat new-yorkais a cité 17 décisions inventées par ChatGPT, entraînant des sanctions disciplinaires[4] ou une avocate en Colombie-Britannique condamnée à payer les frais de la partie adverse pour avoir cité deux affaires inexistantes[5]).
La conséquence d’une faible fiabilité témoigne aussi de résultats pouvant être biaisés, d’autant plus que les IA reproduisent des stéréotypes culturels (78% des données d’entraînement proviennent de sources anglo-saxonnes) où il est possible d’en identifier deux types selon le Guide de bonne pratique du CNB face à l’utilisation de l’IA[6] :
- Biais de conception : apparaissent lorsque les données sur lesquelles l’IAG est entrainée sont susceptibles de contenir des stéréotypes culturels ou des discriminations de genre et envers les minorités. Ils peuvent influer sur les réponses générées par l’IAG, introduisant des erreurs et des risques d’amplification et d’aggravation des discriminations.
- Biais cognitifs personnels de l’utilisateur : consiste pour l’utilisateur à formuler une requête selon ses propres préjugés/attentes. Par exemple, si l’avocat formule une question en laissant supposer une certaine culpabilité / innocence, l’outil pourrait fournir une réponse qui renforce cette supposition plutôt que de produire un résultat objectif. L’autre risque dans l’utilisation des IAG réside dans la paresse intellectuelle, de ne pas chercher plus loin que le résultat généré.
Dépendance à l’IA Gen
Comme vu plus haut, les avocats peuvent avoir recours à l’IA Gen pour une multitude de tâches. Il s’agit avant tout de capitaliser sur les performances des systèmes pour gagner du temps, par exemple dans le cadre de dossier contentieux souvent chronophages.
Mais où placer le curseur entre les gains de productivité permis par cette technologie et la nécessaire maîtrise de la réflexion juridique par les avocats ?
Dans cette balance, il est possible que les progrès de l’IA Gen en matière de raisonnement juridique[7] – et la communication qui l’entoure – conduisent à une utilisation massive, voire abusive, de ces systèmes, ce qui peut interroger sur un plan éthique, notamment à l’égard de la dépendance aux technologies ou de l’aseptisation de la pensée.
Ce sont ces risques que Bruno Patino pointait déjà en 2019 à travers « La civilisation du poisson rouge » en critiquant la baisse de la capacité d’attention des personnes[8].
Plus récemment, le Sénat décrivait un risque d’« uniformisation cognitive », désignant le fait que les personnes soient amenées à « penser selon le même mode, non seulement, sans le savoir, avec les mêmes cadres en termes de références culturelles, mais aussi selon les mêmes structures cognitives tournées vers l’induction. »[9].
Se pose ainsi légitimement la question de savoir si la délégation généralisée à l’IA Gen conduira à une perte de créativité de l’avocat, laquelle contribue largement au processus de création du droit[10] ? Verra-t-on disparaître les pensées disruptives, en dehors de la boîte ?
En outre, pour faire écho aux obligations déontologiques, l’avocat devra conserver un esprit critique et une distanciation afin de préserver son serment et son indépendance a fortiori sur des technologies non encore éprouvées et insuffisamment régulées outre-Atlantique.
Toujours se poser la question des logiques sous-jacentes lorsqu’on utilise l’IA. Selon la vérité du LLM et son l’influence sur le raisonnement du sachant, entre DeepSeek, Grok, ou Mistral, il y a quelques variantes et arrangements avec la réalité. Chacun détient ainsi sa propre vérité, sa volonté de faire des coups – d’État – Data et la responsabilité in fine pèsera toujours sur l’usager, notamment lorsqu’il est professionnel du droit.
De surcroît, le droit romano-germanique est moins flexible que la common law, laquelle devient in fine le standard du simple fait de l’emprise des grandes entreprises nord-américaines. Un travail d’engagement, la défense de l’innovation et de la compétitivité doivent-elle passer par un alignement à des standards juridiques et une culture qui ne sont pas les nôtres au mépris de la singularité de notre droit et de la diversité culturelle et éthique.
Enjeux de propriété intellectuelle
Les enjeux de sécurité en matière de propriété intellectuelle sont d’une importance clé, en ce qu’un risque de contrefaçon ne peut être écarté compte tenu d’une réutilisation volontaire de contenus protégés par l’IA (clauses contractuelles, textes, etc.).
Il y a donc une responsabilité qui pèse sur les professionnels notamment du droit. C’est dans ce contexte que le CNCPI au sein du Guide de bonne pratique de l’usage de l’IA pour les CPI, met en place des conseils face à l’IA générative et la propriété intellectuelle.
CNCPI- Guide de bonne pratique de l’usage de l’IA pour les CPI :
IA générative et propriété intellectuelle – conseils à emporter :
- Se tenir informé de la législation autour des IA générative pour adapter sa pratique.
- Évaluer en toute diligence si les éléments exploités issus du système, peuvent constituer des actes de contrefaçon notamment littérale par reproduction, dans le cas du droit d’auteur.
- Éviter de se mettre en situation d’être un tiers responsable de l’initiation d’une atteinte à des droits en chaîne lorsque du contenu est fourni au système (risque d’amplification), en particulier, éviter d’injecter du code informatique, notamment du code soumis à des obligations « open source », dans les prompts, afin de réduire les risques de contrefaçon.
- Maîtriser l’accès au contenu produit par des CPI, qui est disponible sur les sites dont on est responsable, vis-à-vis des robots crawleurs.
Éviter d’utiliser des outils d’IA générative « deepfake », également à titre de précaution eu égard à l’image de la profession.:
Premier article : « Don’t believe the hype … » : La profession du Droit face à l’intelligence artificielle
Second article : « Don’t believe the hype … » : les obligations réglementaires et déontologiques de l’avocat
[1] https://www.cnil.fr/fr/definition/regurgitation
[2] ANSSI ? Recommandations de sécurité pour un système d’IA générative, 2024 : https://cyber.gouv.fr/publications/recommandations-de-securite-pour-un-systeme-dia-generative
[3] https://www.riskinsight-wavestone.com/2023/10/quand-les-mots-deviennent-des-armes-prompt-injection-et-intelligence-artificielle/
[4] https://www.lefigaro.fr/sciences/a-cause-de-chatgpt-un-avocat-americain-cite-des-arrets-qui-n-ont-jamais-existe-20230529
[5] Le Monde du droit, 11 mars 2024 :
[6] https://encyclopedie.avocat.fr/record.htm?record=19246558124910647309
[7] Qu’il faut toutefois nuancer au regard des résultats des nombreuses études sur le sujet. Voir en ce sens A. Trozze, T. Davies, B. Kleinberg, Large language models in cryptocurrency securities cases: can a GPT model meaningfully assist lawyers?, Artificial Intelligence and Law
(2024). Https://doi.org/10.1007/s10506-024-09399-6. ; J.Choi,K.Hickman,A.Monahan,D.Schwarcz,ChatGPTgoestolawschool,2023. Https://-doi.org/10.2139/ssrn.4335905. ; D. Katz, M. Bommarito, S. Gao, P. Arredondo, GPT-4 passes the bar exam., 2023.
Https://ssrn.com/abstract=4389233.
[8] Bruno Patino, La civilisation du poisson rouge : Petit traité sur le marché de l’attention, Grasset, 2019.
[9] Alexandre Sabatou, Patrick Chaize et Corinne Narassiguin, ChatGPT, et après ?
Bilan et perspectives de l’intelligence artificielle, Sénat, 2024, p. 205 : https://www.senat.fr/rap/r24-170/r24-1701.pdf
[10] Jacques Cyrille Armand Nganba, L’avocat dans la création du droit. Réflexion à partir de l’exemple du Cameroun, Les annales du droit, n°14, 2020, p. 167-187