Aller au contenu principal

LE PROJET DE RÈGLEMENT EUROPÉEN SUR L’IA RENFORCE CONSIDÉRABLEMENT LES COMPÉTENCES DE L’UNION.

..

PREMIER TEXTE À VOCATION TRANSVERSALE

Le projet de règlement européen s’inscrit dans le cadre du marché commun et constitue le premier document à vocation transversale relatif à l’IA.

Il complète les législations existantes, et sera suivi par des législations sectorielles pour les véhicules autonomes, la santé, ou le partage des données gouvernementales.

Le propre de ce règlement est de renforcer considérablement les compétences de l’Union en créant – comme l’indique l’article que nous vous proposons – un mécanisme de supervision directement assuré par la Commission.

L’article detaille les dispositions qui paraissent essentielles.

ARTICLE

LE PROJET DE RÈGLEMENT EUROPÉEN SUR L’IA EN RÉSUMÉ

Etienne Grass Managing director, Global head of Public sector chez Capgemini Invent – 22 avril 2021

Le projet de règlement européen s’inscrit dans le cadre du marché commun (article 114 TFUE). Il est le premier texte à vocation transversale sur l’Intelligence Artificielle. Il vient en complément des législations existantes (notamment celle relative aux machines qui a été proposée le même jour ou celle relative à la Biométrie dans le cadre d’EuLisa). Comme l’indique la Communication qui accompagne le projet de règlement, ce texte sera également complété par des législations sectorielles : par exemple, pour définir les standards des véhicules autonomes, dans le domaine de la santé, ou pour favoriser le partage des données gouvernementales (le futur Data act).

Le règlement renforce considérablement les compétences de l’Union. Il crée un mécanisme de supervision directement assuré par la Commission (voir ci-dessous). Il renvoie par ailleurs aux actes délégués la définition même de son champ d’application et permet à la Commission d’actualiser la liste des IA à « haut risque », soumises à des obligations renforcées. La Commission se dote ainsi d’un pouvoir réglementaire considérable sur ces questions.

6 dispositions me paraissent importantes dans ce texte :

1/ Pour la première fois, un texte européen pose une définition de l’IA, au plus exactement des IAs. La Commission a été pragmatique en la matière, en renvoyant à une annexe la liste des modèles algorithmiques couverts. L’article 1 prévoit ainsi qu’est un « système d’IA » « un logiciel qui est développé avec une ou plusieurs des techniques et approches énumérées à l’annexe I et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats (outputs) tels que du contenu, des prévisions, des recommandations, ou des décisions influençant les environnements avec lesquels ils interagissent ». L’annexe I contient une liste détaillée d’approches et de techniques pour le développement de l’IA. Elle pourra être adaptée directement par la Commission.

2/ Certaines IA sont directement interdites car considérées comme « particulièrement néfastes » (harmful). Le titre II du règlement établit cette liste des IA interdites, notamment :

  • Les IAs qui déploient des « techniques subliminales au-delà de la conscience d’une personne » afin de déformer matériellement son comportement d’une manière qui cause un préjudice ;
  • Les IAs qui exploitent l’une des vulnérabilités d’un groupe spécifique de personnes en raison de leur âge, de leur handicap physique ou mental; 
  • Les IAs qui sont tenues par les autorités publiques (ou en leur nom) pour classifier la « fiabilité des personnes » sur une certaine période de temps en fonction de leur comportement social (notamment l’établissement d’un score social)

3/ Le règlement (article 5II) élabore un cadre spécifique pour l’utilisation de systèmes d’identification biométrique à distance «en temps réel» dans des espaces accessibles au public.  Elle n’est possible que dans 3 circonstances :

  • Si elle est strictement nécessaire à la recherche de victimes potentielles spécifiques de la criminalité,
  • Si elle l’est pour à la prévention d’une menace imminente contre la vie ou attaque terroriste
  • Si elle l’est pour la détection d’un auteur ou d’un suspect d’une infraction pénale

Dans tous les cas, cette utilisation est soumise à une autorisation préalable accordée par une autorité judiciaire ou par une autorité administrative indépendante. A noter néanmoins que « dans une situation d’urgence dûment justifiée, l’utilisation du système peut être commencée sans autorisation et l’autorisation ne peut être demandée que pendant ou après l’utilisation. »

4/ Le règlement établit une liste de systèmes d’IA à haut risque (annexe III), qui font l’objet d’un encadrement renforcé. Trois types d’obligations sont notamment posés :

  • Des obligations de transparence et d’explicabilité : elles s’appliqueront en particulier aux systèmes qui interagissent avec les humains, et sont utilisés pour détecter des émotions ou déterminer l’association avec des catégories (sociales) basées sur des données biométriques, ou (ipour générer ou manipuler du contenu («  deep fake ‘). L’objectif est de garantir aux utilisateurs de faire des choix éclairés ou de prendre du recul par rapport à une situation donnée.
  • Des obligations de « garantie humaine » (human oversight) : l’article 14 reprend des principes qui ont prévalu en France dans le domaine de la santé ; il pose le principe d’un contrôle humain des systèmes d’IA à haut risque. «Ils doivent être conçus et développés de telle manière, y compris avec des outils d’interface homme-machine appropriés, qu’ils puissent être efficacement supervisés par des personnes physiques pendant la période d’utilisation du système d’IA. Le contrôle humain doit viser à prévenir ou à réduire au minimum les risques pour la santé, la sécurité ou les droits fondamentaux qui peuvent survenir ». La portée pratique de ses dispositions risque d’être exceptionnellement complexe à assurer.
  •  Des exigences d’exactitude (accuracy), robustesse et cybersécurité (article 15) : les systèmes d’IA à haut risque devront être « conçus et développés de manière à atteindre, à la lumière de leur destination, un niveau approprié de précision, de robustesse et de cybersécurité, et fonctionnent de manière cohérente à cet égard tout au long de leur cycle de vie. »

On notera une obligation déclarative sur l’accuracy : «les niveaux de précision et les mesures de précision pertinentes des systèmes d’IA à haut risque doivent être déclarés dans les instructions d’utilisation ci-jointes. »

5/ Plus globalement le texte prévoit un suivi étroit par la Commission européenne, à travers la création d’une base de données à l’échelle de l’UE. Cette base devra inventorier les systèmes concernés et fait poser sur les producteurs une obligation déclarative nouvelle.

6/ Le règlement renforce considérablement le rôle de l’Union pour aider à façonner les normes et standards mondiaux et promouvoir une IA digne de confiance. La Commission disposera ainsi de la compétence pour négocier au nom de l’Union européenne sur ces questions.

Il institue un « board » européen de l’intelligence artificielle composé de représentants des États membres et de la Commission.

Le projet de règlement devra être adopté par le Parlement européen et le Conseil. Il entrera ensuite immédiatement en vigueur (contrairement à une directive). On peut prévoir un large soutien au sein du Conseil, car le projet répond aux demandes répétées des Etats membres. Dans ses conclusions du du 21 octobre 2020, le Conseil appelait notamment à lutter contre l’opacité, la complexité, les biais, un certain degré d’imprévisibilité et le comportement partiellement autonome de certains systèmes d’IA, afin de garantir leur compatibilité avec les droits fondamentaux et de faciliter l’application des règles juridiques.

Publié par Etienne Grass Managing director, Global head of Public sector chez Capgemini Invent

« J’ai été heureux de contribuer aux travaux du High Level Expert Group on AI (HLEG). Riches et passionnés, ces travaux ont inspiré le projet de réglementation des usages des Intelligences Artificielles – il est temps d’en parler au pluriel -. Le texte est désormais public. Il est promis à devenir la législation sur l’IA la plus clairvoyante et la plus ambitieuse de la planète. Bravo aux équipes de la Commission européenne qui l’ont préparé. Souhaitons à ce texte d’entrer rapidement en vigueur ! « 

Cyril Garcia Léo Isaac-DogninArian Turhani Gianfranco Cecconi Niels Van Der Linden Pierre Demeulemeester Moez Draief Sonia Gorjup-GattiDavid Gruson Isabelle Budor.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google

Vous commentez à l’aide de votre compte Google. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

%d blogueurs aiment cette page :