Le rapport examine l’impact juridique, social, éthique de l’IA et de l’IA générative sur la profession juridique. Le groupe de travail essaie ainsi de concilier l’utilisation de l’IA et de l’IA générative dans la pratique de la profession d’avocat ou de juge tout en respectant les normes déontologiques, la sécurité et la protection des données des clients notamment.
Les auteurs mettent en évidence l’évolution historique de l’IA et de l’IA générative depuis le début du XX, les répercussions positives et négatives de l’utilisation de l’IA par la communauté juridique ainsi que par le grand public tel que les effets de l’accès à la justice.
Par la suite le rapport continue sur plusieurs points axés sur les professions juridiques :
- L’impact de la technologie sur la profession juridique
- L’aperçu législatif et les recommandations
- Les lignes directrices proposées
Ainsi, le groupe de travail ne se borne pas à souligner les lignes directrices mais renvoie également à un état des lieux général de la situation.
L’impact de la technologie alimentée par l’IA dans le monde juridique
L’utilisation de l’IA a la possibilité de permettre une accessibilité, une intelligibilité, une disponibilité plus conséquente au monde juridique. En effet, l’IA a été présentée comme une solution pour combler le « fossé de la justice ». Toutefois son utilisation n’est pas sans risques et de nombreuses interrogations la concernant ont été mises en évidence par le groupe de travail au sein de ce rapport. Des questionnements autour de la confidentialité des données, de la protection des données et de la vie privée, de la déontologie, ou encore du secret professionnel ressortent.
Le rapport avait appuyé sur le fait que le développement rapide de l’IA a la potentialité d’avoir un impact significatif sur l’accès à la justice dans le système juridique américain.
Des règles de déontologie mises en évidence pour l’utilisation de l’IA par les avocats
Ce rapport s’inscrit dans la continuité des rapports publiés par l’Association du Barreau de la Californie et celle de la Floride sur l’utilisation de l’IA dans la profession juridique. Le groupe de travail cite et s’aligne dans l’esprit des directives mises en place par la Californie en novembre 2023 ainsi que par la Floride en janvier 2024.
Il est recommandé aux avocats, comme par l’Association du Barreau de la Californie et par celle de la Floride, d’informer leurs clients lorsque des outils d’IA sont utilisés dans leurs affaires. D’autres recommandations sont mises en avant concernant les avocats tels que :
- S’assurer que les « parajuristes » et les autres employés manipulent correctement l’IA.
- Au sein des règles de déontologie de l’Etat de New York ; fournir des conseils utiles pour l’utilisation de l’IA par les avocats. Le rapport fournit effectivement un tableau résumant les différentes règles de déontologie impliquées par l’utilisation de l’IA pour les avocats et les directives correspondantes.
Ediction de recommandations de lignes directrices à adopter sur l’utilisation de l’IA et de l’IA générative au sein des professions juridiques
Ces lignes directrices se découpent en quatre points.
- Adopter des lignes directrices sur l’IA et l’IA générative
Le groupe de travail recommande à l’Association du Barreau de l’Etat de New York d’adopter les lignes directrices sur l’IA et l’IA générative décrites dans le rapport publié par le groupe de travail le 6 avril 2024.
- Mettre l’accent sur la formation des juges, des avocats, des étudiants en droit et des organismes de réglementations
Développer la formation de ces acteurs du droit afin de mieux comprendre la technologie et de pouvoir appliquer les lois existantes pour la réglementer.
Le groupe de travail souligne que certains des risques engendrés par l’IA pourraient être atténués grâce à la compréhension de la technologie mais, également, grâce à la façon dont l’IA utilisera les données entrantes dans le système d’IA. Un exemple est noté ; celui des préoccupations liées à la vie privée et à la confidentialité des clients pouvant être atténuées par l’utilisation d’une IA « système fermé », qui fournit des requêtes anonymes qui ne sont pas intégrées dans les données d’entraînement de l’IA.
Cela s’aligne avec la recommandation de la création d’un plan de formation complet pour ces acteurs du droit afin de pouvoir faire face aux risques associés à l’IA, de les comprendre voir même de mentionner explicitement l’IA dans le Code de déontologie.
- Identifier les risques liés à la nouvelle réglementation
Les législateurs et régulateurs doivent avoir la capacité d’identifier les risques associés à ces technologies qui ne seraient pas, pour l’instant, sous une loi existante.
Le rapport souligne que « Les législatures devraient identifier les risques associés à la technologie qui ne sont pas pris en compte par les lois existantes, ce qui impliquera probablement des audiences et des études approfondies impliquant des experts en IA ».
- Examiner la fonction du droit dans la gouvernance de l’IA
Les recommandations seraient ainsi de considérer l’IA comme un phénomène classique à double impact :
- Améliorer de nombreux aspects de la société mais, malgré tout ;
- La potentialité de causer des dommages si elle n’est pas contrôlée.
Le groupe de travail considère alors que la réglementation devrait mettre l’accent sur les effets de la technologie sur les individus et la société plutôt que sur les aspects techniques de la technologique elle-même.
La gouvernance de l’IA devrait aussi s’adapter aux risques posés par les applications d’IA en posant un spectre réglementaire plus ou moins important.
Les organismes de réglementation doivent être pragmatiques pour déterminer quelle approche est la meilleure entre une réglementation globale ou sectorielle, ou élaborer une combinaison de ces approches en fonction des secteurs et des problèmes à résoudre.
En outre, ce rapport souligne que l’IA peut être gouvernée au niveau local ou étatique mais que cela parait inadéquate sans coopération internationale voire parfois mondiale puisque l’IA est un phénomène transfrontalier plutôt que local.
« Les données qui sont les données d’entrée de l’IA, peuvent se déplacer au-delà des frontières ».
L’évolution constante de l’IA : mettre en place un comité permanent ou une section pour continuer à examiner l’impact juridique, social et éthique de l’IA
Le rapport recommande au Barreau de l’Etat de New York d’adopter des lignes directrices figurant dans le rapport et de les mettre à jour régulièrement grâce à une section ou un comité permanent qui superviserait les mises à jour périodiques de ces lignes directrices. Ce comité devrait également examiner des questions éthiques qui renvoient au fait que la technologie peut « halluciner » et créer des jurisprudences inexistantes.
Cette mise à jour régulière est recommandée par le rapport qui souligne : « Chaque jour, nous en apprenons davantage sur la capacité de la technologie à transformer la société. Comme les impacts sont continus, les mises à jour de ces lignes directrices devraient l’être aussi ».
Le groupe de travail note qu’il n’offre aucune « conclusion » mais plutôt qu’« au fur et à mesure que l’IA continue d’évoluer, il en va de même pour le travail de la NYSBA – Association du Barreau de l’Etat de New York – et des groupes chargés de la surveillance continue ».