L'Europe réglemente l'IA : voici les utilisations interdites par le règlement sur l'Intelligence artificielle


L'Europe réglemente l'IA : voici les utilisations interdites par le règlement sur l'Intelligence artificielle.
Le texte juridique fixe des limites à certains développements de cette technologie qui présentent un risque pour les droits des personnes.

L’Intelligence artificielle (IA) a le potentiel de changer le monde tel que nous l’avons connu jusqu’à présent. Il s’agit d’une technologie disruptive qui ne laisse personne indifférent en raison de ses capacités très proches de celles de l’homme, ainsi que de son potentiel et de son impact sur différents secteurs. Mais l’Europe n’ignore pas le revers de la médaille : elle comporte des risques juridiques et peut porter atteinte aux droits des personnes si elle n’est pas utilisée correctement, raison pour laquelle l’Union européenne a fixé certaines limites juridiques. Ainsi, le récent règlement sur l’IA (LAW 16665/2024) (RIA) énumère une série d’utilisations interdites.

Comme son nom l’indique, le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 (LOI 16665/2024) établit une série de règles harmonisées pour réglementer l’utilisation de cette technologie. Le texte réglementaire confirme que son objectif est d’améliorer le fonctionnement du marché intérieur. À cette fin, il établit un cadre juridique uniforme régissant le développement, la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA dans le respect des valeurs de l’Union européenne (UE) et de la Charte des droits fondamentaux.

Il garantit également la libre circulation transfrontalière des biens et services basés sur l’IA. De cette manière, il garantit que les États membres ne peuvent pas restreindre les développements liés à cette technologie si le règlement ne le stipule pas expressément.

Parmi les limitations énoncées dans le texte juridique, un certain nombre de pratiques interdites se distinguent. Il s’agit des pratiques suivantes

  1. Les techniques subliminales et la manipulation. Le document s’oppose à l’utilisation de ce type de techniques liées à l’IA afin d’éviter la manipulation ou la tromperie délibérée de la conscience d’une personne, y compris lorsqu’il s’agit de pratiques visant à modifier son comportement. Il limite la possibilité d’altérer la capacité humaine à prendre des décisions éclairées ou de modifier le jugement d’une personne avec une forte probabilité de préjudice pour elle-même ou pour autrui.
  2. Exploitation des vulnérabilités. La directive interdit également les systèmes fondés sur l’IA susceptibles d’exploiter les vulnérabilités d’une personne ou d’un groupe de personnes en raison de leur âge, d’un handicap ou d’une situation sociale ou économique particulière, en modifiant leur comportement à leur détriment.
  3. Évaluation ou classement de personnes. Le règlement empêche l’utilisation de développements d’IA dont l’objectif est d’évaluer ou de classer des personnes ou des groupes de personnes pour une période donnée sur la base de leur comportement social. Il en va de même s’ils le font sur la base de leurs caractéristiques personnelles ou de leur personnalité, qu’elles soient déjà connues ou qu’elles soient déduites ou prédites, lorsque cela entraîne un traitement préjudiciable dans des contextes sociaux autres que celui où les données ont été générées, ou un traitement défavorable injustifié ou disproportionné par rapport à leur comportement social ou à la gravité de ce comportement.
  4. Prévision des risques de criminalité. Une autre application interdite est l’évaluation des risques des personnes afin d’évaluer ou de prédire la probabilité qu’elles commettent un crime, à condition qu’elle soit basée uniquement sur leur profilage ou leurs traits ou caractéristiques de personnalité. Cette interdiction ne s’applique pas aux scénarios dans lesquels l’IA est utilisée pour soutenir l’évaluation humaine de l’implication d’une personne dans une activité criminelle, sur la base de faits objectifs et vérifiables directement liés à l’activité criminelle.
  5. Images faciales tirées du web. Le règlement exclut la possibilité d’utiliser l’IA pour créer ou étendre des bases de données de reconnaissance faciale à partir d’images faciales provenant d’Internet ou de la télévision en circuit fermé.
  6. Déduire les émotions au travail ou dans les établissements d’enseignement. L’Europe s’oppose également à l’utilisation de ces systèmes lorsqu’ils ont pour but de déduire les émotions d’une personne au travail et dans les établissements d’enseignement, sauf si cela est justifié par des raisons médicales ou de sécurité.
  7. Classification par catégorisation biométrique. Une autre utilisation interdite de l’IA est liée à la catégorisation biométrique visant à classer les individus sur la base de leurs données biométriques afin de déduire leur race, leurs opinions politiques, leur appartenance à un syndicat, leurs convictions religieuses ou philosophiques, leur vie sexuelle ou leur orientation sexuelle. Toutefois, l’étiquetage ou le filtrage de données biométriques légalement acquises, telles que des images, sur la base de données biométriques est autorisé. La catégorisation des données biométriques est également autorisée dans le domaine de l’application de la loi.
  8. Identification biométrique à distance « en temps réel ». Cette pratique est particulièrement sensible et fait l’objet d’une réglementation détaillée dans l’ensemble du texte juridique. Cette utilisation est interdite lorsqu’elle a lieu dans des zones accessibles au public à des fins de maintien de l’ordre, à moins qu’elle ne soit strictement nécessaire dans trois cas :
  • Recherche de victimes d’enlèvement, de traite des êtres humains, d’exploitation sexuelle ou de personnes disparues.
  • Prévenir une menace spécifique, significative et imminente pour la vie et une menace réelle, actuelle ou prévisible d’attentat terroriste.
  • Pour localiser ou identifier un délinquant présumé lorsque l’infraction est passible d’une peine privative de liberté d’au moins quatre ans dans l’État membre.

Dans tous ces cas, une autorisation préalable est requise de la part des autorités de l’État membre, qui doivent procéder à une évaluation de l’impact sur les droits fondamentaux. Cela ne sera pas nécessaire dans les cas d’urgence justifiés, mais l’enregistrement correspondant dans la base de données de l’UE devrait être effectué aussi rapidement que les circonstances le permettent.

Ilier Navarro
Journaliste - Journal La Ley