Le Parlement européen pousse à l'interdiction de l'intelligences artificielle utilisant la biométrie
Le Parlement européen peaufine actuellement le projet de règlement sur l'intelligence artificielle (IA). Les eurodéputés souhaitent notamment l'interdiction de tous les usages biométriques de l'IA et l’encadrement des intelligences dites "génératives" comme ChatGPT.
La Commission européenne a initié en avril 2021 un règlement sur l'intelligence artificielle (IA) promettant d'être aussi ambitieux et structurant que l'a été en 2018 le RGPD sur les données personnelles. Objet de plus d’un millier d’amendements, le texte est en cours de finalisation dans la perspective de son adoption en séance plénière en avril 2023.
Une approche par les risques
Pour mémoire, la Commission européenne a proposé une régulation des systèmes d'IA "par les risques" afin de concilier innovation et préservation des "valeurs européennes". Selon cette logique pyramidale, certains systèmes jugés "inacceptables" seront interdits. Cette interdiction concerne, entre autres, la notation sociale, les IA à visée discriminatoire (genre, couleur, opinion…) ou celles manipulant le comportement humain pour priver les utilisateurs de leur libre arbitre.
En dessous, figurent les IA présentant un "risque élevé", fortement encadrées. On y trouve celles utilisées dans des domaines touchant les infrastructures critiques (énergie, transports…), l’éducation, la formation professionnelle, l’emploi, les ressources humaines, les services privés et publics essentiels, le maintien de l’ordre, la justice ou les processus démocratiques.
Le troisième niveau intègre les IA où les risques sont limités, leurs fournisseurs n’étant soumis qu’à des obligations de transparence. Enfin au bas de la pyramide sont les domaines d'application de l'IA (très nombreux) présentant des risques minimes, non soumis à un encadrement spécifique.
Interdiction totale des IA biométriques ?
L’exécutif européen n’a cependant pas totalement fermé la porte à l’usage d’IA utilisant la biométrie. Si son usage en temps réel sur l’espace public est prohibé, elle a gardé la possibilité d’utiliser la reconnaissance faciale "a posteriori", sous le contrôle d’une autorité judiciaire, pour la lutte contre le terrorisme notamment. Cette exception, poussée en particulier par la France, fait partie des points en débat au Parlement de Strasbourg. En octobre 2022, des eurodéputés avaient appelé au bannissement total des technologies de police prédictive et de reconnaissance faciale dans l’espace public. Et dans la perspective de l’arrivée à l’Assemblée nationale du projet de loi sur les JO, une quarantaine d’eurodéputés ont écrit le 17 mars 2023 à leurs homologues français pour demander la suppression de son article 7. Celui-ci autorise une expérimentation de l’IA pendant la durée des jeux pour détecter des objets suspects et des comportements anormaux "prédéterminés", comme un mouvement de foule (voir notre article du 31 janvier 2023). "Si la loi est adoptée dans sa forme actuelle, la France créera un précédent de surveillance jamais vu en Europe", mettent en garde les signataires de ce courrier cité par le journal Le Monde. Selon ces derniers, il existerait "une majorité favorable à une interdiction stricte de la surveillance biométrique de masse", l’article 7 risquant d’entrer en contradiction avec le futur règlement.
Encadrement des IA génératives
Le Parlement européen souhaite également renforcer l’encadrement des IA dites "génératives" (1) sans les classer pour autant dans les IA à haut risque. Cette catégorie d’algorithme a fait couler beaucoup d’encre depuis le lancement fin 2022 de ChatGPT, une IA sous forme d’agent conversationnel aux capacités inégalées. Rédaction d’articles de presse, de dissertation, de courriers, de programmes informatiques, de formules mathématiques ou encore de poèmes et romans à la manière de… cette IA rédige en quelques secondes toutes sortes de contenus à partir de données existantes. Les rapporteurs de l'IA Act souhaitent une régulation de ces systèmes "entraînés sur de vastes données à grande échelle, conçus pour une généralité de résultats et pouvant être adaptés à un large éventail de tâches". Ils veulent que les fournisseurs de ces solutions aient l'obligation d'identifier et d'atténuer les risques indépendamment de l’utilisation qui en sera faite. Ils devront aussi apporter des garanties sur la fiabilité des jeux de données utilisés, un outil comme ChatGPT n’indiquant par exemple pas les sources sur lesquelles il fonde ses réponses.
En 2023, la Cnil annonce des contrôles sur les caméras intelligentes
En attendant un cadre européen ou une loi, et à la demande des industriels du secteur et les collectivités territoriales, la Cnil a élaboré ses propres lignes directrices sur l’usage des caméras augmentées ou intelligentes (voir notre article du 19 juillet 2022). En 2023, la Commission va vérifier sur le terrain si celles-ci sont bien mises en œuvre, notamment à l’occasion de la Coupe du monde rugby. Le traçage par des applications mobiles et l’accès au dossier informatisé du patient sont également dans le viseur de la Cnil.
Pour mémoire, la Cnil a procédé en 2022 à 345 contrôles. Elle a prononcé 21 sanctions – avec des amendes d’un montant total de 100 millions d'euros – et 147 mises en demeure. Parmi ces dernières, 22 collectivités qui n’avaient toujours pas désigné de délégué à la protection des données.
(1) Une IA générative est un type d’intelligence artificielle qui est capable de générer de nouveaux contenus, tels que des images, des vidéos, de la musique, des textes ou des modèles 3D, à partir de données d’apprentissage. Il utilise des techniques de traitement automatique du langage, de la vision par ordinateur, de la reconnaissance de la parole, de l’apprentissage en profondeur, de la génération de données et de l’optimisation pour produire des résultats qui imitent les créations humaines.