L’OCDE met à jour ses lignes directrices pour le développement d’une intelligence artificielle digne de confiance


L’OCDE met à jour ses lignes directrices pour le développement d’une intelligence artificielle digne de confiance
Il s’agit d’un document particulièrement pertinent par rapport à l’imminent règlement européen sur l’IA, puisqu’il fait expressément référence au concept d’IA établi par l’OCDE. Ses principes constitueront très probablement la base de l’éventuelle convention internationale sur l’IA en cours de négociation au sein de cet organe et des travaux du Conseil du commerce et des technologies UE – États-Unis.

Le Conseil des ministres de l’OCDE, réuni le 5 mai, a approuvé la révision des Principes de l’OCDE sur l’intelligence artificielle (IA), en réponse aux développements récents des technologies de l’IA, en particulier l’émergence de l’IA générative et à usage général. L’objectif est que ces principes actualisés répondent plus directement aux défis associés à l’IA concernant la vie privée, les droits de propriété intellectuelle, la sécurité et l’intégrité de l’information.

Avec 47 pays adhérents, dont l’UE, et un champ d’application général garantissant l’applicabilité aux développements de l’IA dans le monde, les Principes de l’OCDE sur l’IA fournissent un modèle pour les cadres politiques sur la manière de traiter les risques liés à l’IA et d’élaborer des politiques en matière d’IA. En tant que première norme intergouvernementale sur l’IA, ils plaident pour une IA innovante et digne de confiance, et qui respecte les droits de l’homme et les valeurs démocratiques.

Il s’agit également d’un document particulièrement pertinent par rapport à l’imminent règlement européen sur l’IA, car il fait expressément référence au concept d’IA établi par l’OCDE et ses principes constitueront très probablement la base de l’éventuelle convention internationale sur l’IA qui est en cours de négociation au sein de cet organe. Leurs définitions servent également de base aux travaux des Nations unies et du Conseil du commerce et des technologies UE-États-Unis.

Les risques posés par l’IA se développent à une vitesse sans précédent

Suite à l’évolution de la situation depuis l’adoption de ces principes en 2019, l’Observatoire des politiques de l’OCDE sur les politiques en matière d’IA montre que les investissements en capital-risque dans les start-ups d’IA générative ont été multipliés par neuf, que la demande de compétences en IA a grimpé de 130 % et que la proportion de grandes entreprises utilisant l’IA en moyenne dans les pays de l’OCDE a presque doublé pour atteindre plus de quatre fois celle de ses homologues plus petits. Ces développements coïncident avec une attention et une action politique importantes, comme en témoignent plus de 1 000 initiatives d’IA dans plus de 70 pays et juridictions.

Par conséquent, l’OCDE estime qu’il est de plus en plus impératif de développer et de mettre en œuvre des systèmes d’IA pour stimuler la productivité, accélérer la recherche scientifique, promouvoir la durabilité environnementale et améliorer les soins de santé et l’éducation, tout en respectant les droits de l’homme et les valeurs démocratiques.

En parallèle, les risques posés par l’IA, qui affectent la vie privée, la sécurité, l’équité et le bien-être des personnes, se développent à une vitesse et à une échelle sans précédent, se transforment en préjudices réels tels que la perpétuation des préjugés et de la discrimination, la création et la diffusion de fausses informations et la distorsion du discours public et des marchés.

Dans ce contexte, les éléments clés de cette révision visent à garantir que les Principes restent pertinents, solides et adaptés à l’objectif, et comprennent :

  • Répondre aux préoccupations en matière de sécurité, de sorte que si les systèmes d’IA présentent le risque de causer des dommages excessifs ou de présenter un comportement indésirable, des mécanismes et des garanties robustes sont en place pour les annuler, les réparer et/ou les démanteler en toute sécurité.
  • Refléter l’importance croissante de lutter contre la mésinformation et la désinformation, et de préserver l’intégrité de l’information dans le contexte de l’IA générative.
  • Souligner l’importance de maintenir une conduite responsable des entreprises tout au long du cycle de vie du système d’IA, en impliquant une coopération avec les fournisseurs de connaissances et de ressources en IA, les utilisateurs de systèmes d’IA et d’autres parties prenantes.
  • Clarifier les informations sur les systèmes d’IA qui constituent la transparence et la divulgation responsable
  • Faire explicitement référence à la durabilité environnementale, une préoccupation qui a pris une importance considérable au cours des cinq dernières années.

Principes révisés

C’est pourquoi l’OCDE réaffirme l’importance des principes suivants, qui sont complémentaires et doivent être considérés dans leur ensemble :

  1. L’IA devrait favoriser la croissance inclusive, le développement durable et le bien-être des personnes, en recherchant des résultats bénéfiques pour les personnes et la planète, stimulant ainsi la croissance inclusive, le bien-être, le développement durable et la durabilité environnementale.
  2. Respect de l’État de droit, des droits de l’homme et des valeurs démocratiques, y compris l’équité et la vie privée

À cette fin, les acteurs de l’IA devraient mettre en œuvre des mécanismes et des garanties, tels que la capacité d’intervention humaine et la surveillance, y compris pour faire face aux risques découlant d’utilisations non intentionnelles, d’une utilisation abusive intentionnelle ou d’une utilisation abusive non intentionnelle, d’une manière appropriée au contexte et conforme à l’état de la technique.

  1. Transparence et clarté

Les acteurs de l’IA doivent s’engager à faire preuve de transparence et à divulguer de manière responsable les systèmes d’IA. Pour ce faire, ils doivent fournir des informations significatives, adaptées au contexte et à la pointe de la technologie.

  1. Robustesse, sécurité et protection

Les systèmes d’IA doivent être robustes, sûrs et sécurisés tout au long de leur cycle de vie, de sorte que, dans des conditions normales d’utilisation, d’utilisation prévisible ou de mauvaise utilisation, ou dans d’autres conditions défavorables, ils fonctionnent correctement et ne présentent pas de risques déraisonnables pour la sécurité.

  1. Responsabilité
    • Les acteurs de l’IA devraient être responsables du bon fonctionnement des systèmes d’IA et du respect des principes susmentionnés, en fonction de leurs rôles, de leur contexte et de l’état de la technique.
    • À cette fin, les acteurs de l’IA devraient assurer la traçabilité, y compris en ce qui concerne les ensembles de données, les processus et les décisions prises au cours du cycle de vie du système d’IA, afin de permettre l’analyse des résultats du système d’IA et des réponses aux questions, d’une manière adaptée au contexte et conforme à l’état de la technique.
Carlos B. Fernandez
Rédacteur Aranzadi La Ley