L'Europe en bonne voie pour se doter d'un cadre sur l'intelligence artificielle
Le texte encadrant l'intelligence artificielle (IA), lancé par la Commission en 2020, a franchi jeudi 11 mai 2023 une étape importante. Sensiblement remaniée par les eurodéputés, la proposition de règlement clarifie les interdictions pesant sur l'usage des systèmes d'IA biométriques, introduit des règles propres aux IA génératives et renforce les droits des citoyens.
Les commissions du marché intérieur et des libertés civiles du Parlement de Strasbourg ont adopté jeudi 11 mai 2023 par 84 voix pour, 7 contre et 12 abstentions, un projet de mandat de négociation portant sur "des règles harmonisées concernant l’intelligence artificielle". Quand elles seront définitivement adoptées, l'Europe sera la première entité au monde à s'être dotée d'un cadre sur l'IA. Lancée en février 2020, cette initiative a suscité des débats intenses au sein du Parlement avec plus de 2.000 amendements, notamment sur la définition de l’intelligence artificielle, l’interdiction de la biométrie et la prise en compte des IA génératives.
Une définition de l'IA
Le texte adopté vise à garantir que les systèmes d’IA "bénéficient d’un contrôle humain, qu’ils sont sûrs, transparents, traçables, non discriminatoires et respectueux de l’environnement" précise le communiqué du Parlement. Les eurodéputés ont également souhaité uniformiser la définition de l'IA, pour que celle-ci puisse s’appliquer "aux systèmes d’IA d’aujourd’hui et de demain". Ainsi un système d’intelligence artificielle est défini par l’article 3 comme "un logiciel qui est développé au moyen d’une ou plusieurs des techniques (…) et qui peut, pour un ensemble donné d’objectifs définis par l’homme, générer des résultats tels que des contenus, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels il interagit".
L'interdiction des systèmes biométriques clarifiée
L'approche par les risques, comprenant des interdictions de systèmes d’IA et des obligations pour les fournisseurs variant en fonction du niveau de risque, a été validée par les eurodéputés. Les systèmes d'IA présentant un niveau de risque "inacceptable pour la sécurité des personnes" sont interdits. Le texte liste :
- les systèmes d’IA tendant à manipuler les personnes par des techniques subliminales,
- ceux exploitant les vulnérabilités des personnes (âge, handicap, enfant…),
- les systèmes de notation sociale,
- certains systèmes biométriques.
Ainsi "l’utilisation de systèmes d’identification biométrique à distance 'en temps réel' dans des espaces accessibles au public à des fins répressives" est interdite. L'usage de systèmes biométriques "a posteriori" est réservé à la poursuite "d'infractions graves" et placé sous le contrôle d'un juge. Les eurodéputés ont aussi interdit les systèmes de police prédictive, la reconnaissance des émotions et la possibilité d'utiliser un système d'IA biométrique pour catégoriser les personnes (race, genre, religion, opinion…). Enfin, le texte interdit la récolte de données biométriques issues des médias sociaux ou de la vidéosurveillance pour créer des bases de données de reconnaissance faciale comme le pratique aujourd’hui la société américaine Clearview.
Elargissement des IA à haut risque
Les députés ont élargi la classification des IA à haut risque pour y inclure "les atteintes à la santé, à la sécurité, aux droits fondamentaux ou à l’environnement". Les eurodéputés ont également ajouté à la liste des IA à haut risque les systèmes d’IA utilisés pour influencer les électeurs lors de campagnes politiques, ainsi que ceux des systèmes de recommandations utilisés par les plateformes de médias sociaux. Les fournisseurs de systèmes d’IA "généralistes" seront par ailleurs soumis à un principe de minimisation du risque et devront "garantir un niveau élevé de protection des droits fondamentaux, de la santé et de la sécurité ainsi que de l’environnement, de la démocratie et de l’État de droit".
Obligations de transparence pour l'IA générative
Les modèles génératifs apparus ces derniers mois – tels que ChatGPT, Bard, DALL-E 2, MidJourney… - devront formellement indiquer que le contenu produit a été généré par une IA. Cette obligation concerne tout système qui "génère ou manipule des images ou des contenus audio ou vidéo présentant une ressemblance avec des personnes, des objets, des lieux ou d'autres entités ou événements existants et pouvant être perçus à tort comme authentiques ou véridiques", précise l'article 52. Ces IA génératives devront aussi mentionner leurs sources afin de les soumettre potentiellement aux droits d'auteurs.
Droits des citoyens
La proposition de texte affirme enfin le droit des citoyens à porter plainte contre des systèmes d'IA et à recevoir des explications concernant les décisions fondées sur des systèmes d'IA à haut risque ayant une incidence significative sur leurs droits. Pour ne pas tarir l'innovation, le texte instaure enfin le concept de "bacs à sable réglementaires", placés sous le contrôle des autorités publiques, où les systèmes d'IA peuvent être testés avant leur déploiement.
La proposition du Parlement doit maintenant être négociée avec le Conseil européen, sous réserve que le projet de mandat soit formellement adopté mi-juin par l’assemblée plénière du Parlement.
Un centre d'expertise européen sur les algorithmesSéville (Espagne) a inauguré mi-avril le Centre européen pour la transparence algorithmique (ECAT). Voulu par la Commission, cet organisme de recherche doit renforcer la capacité de l’Europe à réguler les plateformes et à mettre en œuvre les textes tels que Digital Services Act (DSA), le Digital Market Act (DMA) et le futur règlement sur l’IA. Avec le DSA, les grandes plateformes ont en effet pour obligation "de recenser, d’analyser et d’atténuer toute une série de risques systémiques, qui vont de la manière dont les contenus illicites et la désinformation peuvent être amplifiés au moyen de leurs services à l’incidence sur la liberté d'expression ou la liberté des médias". Une équipe interdisciplinaire composée d'experts en mégadonnées, en IA, en sciences sociales et en droit aura pour mission de réaliser des analyses techniques et des évaluations d'algorithmes. Elle devra aussi proposer de bonnes pratiques destinées à en atténuer les effets. Elle aura enfin une mission prospective sur l’analyse de l’impact sociétal de l'IA et des algorithmes à long terme. |