L’IA sous surveillance : comment la surveillance humaine va-t-elle fonctionner ?


L’IA sous surveillance : comment la surveillance humaine va-t-elle fonctionner ?
Le Règlement Intelligence Artificielle renforce la fonction de contrôle de cette technologie par l’homme lorsqu’elle comporte un risque élevé.

L’action humaine et la supervision constituent un principe fondamental au sein du règlement sur l’intelligence artificielle (LOI 16665/2024) (RIA), avec une approche marquée basée sur les risques. La raison de cette approche se trouve dans les Lignes directrices éthiques pour une IA digne de confiance qui ont été élaborées en 2019 par le Groupe d’experts indépendant de haut niveau sur l’IA créé par la Commission européenne et qui élabore sept principes. Le principe de la supervision humaine met l’accent sur le développement et l’utilisation de systèmes d’IA compris comme un outil au service de l’homme, qui respecte la dignité humaine et l’autonomie personnelle et souligne que leur fonctionnement peut être contrôlé et surveillé par des êtres humains.

La supervision humaine est l’une des exigences auxquelles doivent répondre les systèmes d’IA à haut risque. Le règlement stipule que c’est le fournisseur du système qui doit définir les mesures appropriées de surveillance humaine avant son introduction sur le marché ou sa mise en service. Le cas échéant, ces mesures doivent inclure une série de limitations opérationnelles intégrées dans le système lui-même, de sorte qu’il ne puisse pas les désactiver et, en tout état de cause, elles doivent répondre à l’opérateur humain. De plus, les personnes responsables de la surveillance humaine doivent avoir les compétences, la formation et l’autorité nécessaires pour exercer cette fonction.

En outre, dans certains cas, il sera essentiel de veiller à ce que les systèmes d’IA à haut risque comprennent des mécanismes permettant de guider et d’informer leurs superviseurs afin qu’ils décident d’intervenir ou non ou s’il est approprié d’arrêter directement le système lorsqu’il ne fonctionne pas comme prévu. Cette décision doit être prise en connaissance de cause et doit savoir quand et comment la prendre. De cette façon, l’objectif est d’éviter les conséquences négatives ou les risques.

En outre, lorsque des cas spécifiques à haut risque se présentent, le texte juridique envisage un système de surveillance humaine renforcée, une tâche qui doit être assumée par deux personnes différentes.

Réglementation de la surveillance humaine

Le règlement sur l’intelligence artificielle (LOI 16665/2024) réglemente la surveillance humaine des systèmes à haut risque dans son article 14.

La première chose qu’il indique, c’est que ces types de systèmes à haut risque doivent être conçus et développés de manière à pouvoir être surveillés par les humains pendant leur utilisation. Cela nécessite qu’ils soient dotés de mécanismes et d’outils appropriés pour faciliter l’interface homme-machine. Tout cela dans le but de prévenir ou de réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent survenir lors de l’utilisation d’un système d’IA à haut risque, en particulier lorsque ceux-ci persistent malgré le respect d’autres exigences. De plus, cette prévention doit avoir lieu que le système soit utilisé aux fins pour lesquelles il a été créé ou qu’il soit mal utilisé de manière prévisible.

En tout état de cause, les mesures de surveillance sont proportionnées aux risques, au niveau d’autonomie et au contexte d’utilisation du système d’IA. Le texte juridique indique que l’une ou les deux mesures suivantes peuvent être adoptées :

  • les mesures que le fournisseur lui-même inclut dans le système d’IA à haut risque avant de le mettre sur le marché.
  • les mesures définies par le fournisseur avant l’introduction sur le marché du système d’IA à haut risque et qui sont appropriées pour la mise en œuvre par le déployant.

Pour atteindre ces objectifs, les personnes chargées d’effectuer des tâches de surveillance humaine doivent être en mesure de bien comprendre les capacités et les limites du système d’IA à haut risque et d’être en mesure de surveiller correctement son fonctionnement, afin qu’il ait la capacité de détecter et de résoudre les anomalies, les problèmes opérationnels et les comportements inattendus. En effet, l’article 26 du règlement rappelle que les responsables du déploiement des systèmes à haut risque doivent confier la supervision humaine à des personnes disposant des compétences, de la formation et de l’autorité nécessaires.

D’autre part, il se concentre sur ce que l’on appelle le biais d’automatisation. Cela signifie que le superviseur humain doit être conscient de la possibilité qu’il se fie automatiquement ou excessivement aux résultats générés par un système d’IA à haut risque. Cela peut être plus fréquent dans les systèmes utilisés pour fournir des informations ou des recommandations pour aider les gens à prendre une décision.

D’autres responsabilités que les superviseurs humains doivent être en mesure d’assumer sont l’interprétation correcte des résultats de sortie, en tenant compte des méthodes et des outils disponibles à cet effet ; ils doivent également être en mesure de décider de ne pas utiliser le système d’IA à haut risque ou d’écarter, d’invalider ou d’inverser les résultats de sortie et même d’intervenir dans son fonctionnement ou de l’interrompre en appuyant sur un bouton d’arrêt – ou par une procédure similaire – qui permet au système de s’arrêter en toute sécurité.

Dans certains cas, les mesures de surveillance devraient garantir que la personne responsable du déploiement n’agit pas ou ne prend aucune décision sur la base de l’identification générée par le système lui-même, à moins qu’au moins deux personnes dûment qualifiées n’aient vérifié et confirmé séparément cette identification. Il s’agit de ceux détaillés à l’annexe III, point 1, lettre a), c’est-à-dire les systèmes d’identification biométrique à distance.

Mais il existe une exception à cette double vérification humaine : les systèmes d’IA à haut risque utilisés pour garantir le respect de la loi, la migration, le contrôle des frontières ou l’asile, mais uniquement lorsque les législations nationales ou européennes considèrent que cette exigence est disproportionnée.

Enfin, il convient de noter que l’article 11 réglemente la documentation technique d’un système d’IA à haut risque. À cet égard, le texte juridique stipule également que, dans ces cas, une évaluation des mesures de surveillance humaine nécessaires doit être incluse, y compris une évaluation des mesures techniques visant à faciliter l’interprétation des résultats des systèmes d’IA par les responsables du déploiement.

Ilier Navarro
Journaliste - Journal LA LEY