La transparence est l’un des sept principes éthiques qui devraient régir les développements basés sur l’intelligence artificielle. Cela est souligné par les règlements sur l’intelligence artificielle (LA LEY 16665/2024) (RIA), qui font référence aux lignes directrices éthiques pour une IA fiable élaborées par le groupe d’experts indépendant de haut niveau sur l’analyse d’impact des IA créé par la Commission européenne en 2019. Sur cette base, le règlement développe une série de règles et d’obligations qui marqueront l’évolution future de cette technologie.
Qu’entend-on par transparence lorsque nous parlons d’intelligence artificielle ? Le texte juridique le clarifie lui-même. Il suppose que les systèmes d’IA devraient être développés et utilisés de manière à ce qu’il y ait une traçabilité et une explication adéquate. Deuxièmement, ils devraient permettre aux gens d’être conscients qu’ils communiquent ou interagissent avec un système d’IA. En outre, un troisième aspect de la notion de transparence signifie que les capacités et les limites de ce système sont dûment informées des responsables du déploiement et que leurs droits doivent être communiqués aux personnes concernées.
Les garanties de traçabilité liées à l’utilisation transparente de l’IA exigent que, dans le cas d’un système ne comportant pas de risque élevé, les fournisseurs documentent un processus d’entrée avant la mise sur le marché ou d’une évaluation de l’entrée sur le marché. Ces documents sont transmis aux autorités nationales compétentes sur demande.
Une autre obligation des fournisseurs en matière de transparence est l’enregistrement du système dans la base de données de l’Union européenne (UE), dont l’établissement prévoit dans le règlement lui-même.
La transparence est également un facteur pertinent dans le cas des systèmes d’intelligence artificielle utilisés pour assurer le respect de la loi, car elle contribuera à éviter les conséquences négatives de l’utilisation de cette technologie dans l’exercice des droits procéduraux fondamentaux, tels que le droit à une protection judiciaire effective et un juge impartial, le droit à la défense ou la présomption d’innocence. Des situations de dysfonctionnement ou de risque pourraient se produire si les personnes sont victimes de discrimination, par exemple, en raison d’une formation de mauvaise qualité de l’IA, sur la base de données peu fiables ou de procédures inadaptées ou de garanties suffisantes.
IA à haut risque
Mais il y a des scénarios dans lesquels la demande de transparence est décisive. C’est le cas dans les systèmes d’IA à haut risque, où la transparence est l’une des exigences pour atténuer efficacement les risques pour la santé, la sécurité et les droits fondamentaux. En l’absence d’autres mesures raisonnables de restriction des échanges, ces exigences – y compris la transparence – ne sont pas des restrictions injustifiées au commerce, souligne le RIA.
L’obligation de transparence est requise en ce qui concerne l’IA à haut risque dans les phases précédant la mise sur le marché ou la mise en service et le conditionnement de sa conception, ce qui devrait permettre aux responsables du déploiement de comprendre son fonctionnement, d’évaluer sa fonctionnalité et de comprendre à la fois ses points forts et ses limites. À cet égard, ils devraient être accompagnés d’instructions appropriées à cette fin qui comprennent des exemples illustratifs, ainsi que les utilisations prévues et exclues.
Ces instructions devraient contenir des informations utiles afin que les responsables du déploiement soient non seulement en mesure d’utiliser le système, mais aussi de prendre des décisions en connaissance de cause et de choisir correctement le système conformément aux obligations qu’ils doivent remplir. Cela vaut également pour les instructions à fournir aux entreprises ou aux agences qui utilisent ces systèmes d’intelligence artificielle comme base pour d’autres développements ultérieurs ou qui les intègrent dans le cadre des produits qui ont été proposés pour le développement et le marché.
Utilisation des données
D’autre part, l’utilisation de données à caractère personnel doit également être transparente, notamment en ce qui concerne l’objectif initial de la collecte de ces informations. Une mention spéciale porte sur le traitement des données biométriques dans l’utilisation d’un système d’IA, qui ne sera autorisé que lorsque cela sera strictement nécessaire, conformément à la directive (UE) 2016/68. Lorsque cette utilisation est autorisée, il convient de veiller à ce que le traitement de ce type de données soit légal et équitable, ainsi que sa transparence, la limitation de l’objet, l’exactitude et la limitation de la période de stockage.
Et qu’en est-il des données qui sont utilisées pour la formation de modèles d’IA à usage général ? Dans ces cas, le règlement met l’accent sur la nécessité de faire en sorte que l’utilisation de ces informations soit transparente. Pour atteindre cet objectif, cette exigence doit être matérialisée au moyen de résumés à la disposition du public qui doivent, d’une part, assurer la protection des secrets d’affaires ou des informations commerciales confidentielles et, d’autre part, faciliter le respect du droit d’auteur. À cet égard, la RIA note que le Bureau de l’IA devra élaborer et fournir un modèle de résumé, qui doit être simple et efficace.
Usurpation d’identité ou tromperie
L’exigence de transparence est également liée aux cas où l’interaction avec une IA présente des risques d’usurpation d’identité ou de tromperie. Les personnes qui interagissent avec un tel système devront être informées, à moins qu’il ne soit clair qu’il s’agit d’un modèle d’intelligence artificielle. À cet égard, une attention particulière devrait être accordée aux groupes vulnérables en raison de leur âge ou d’un handicap.
Il en va de même lorsqu’une image, un son ou une vidéo est généré ou manipulé par une intelligence artificielle. Si une personne peut penser qu’elle est réelle (ultra usurpation d’identité), il convient de rendre public de manière claire et transparente le fait qu’elle a été manipulée ou créée à l’aide d’une IA.