JO 2024 : l'usage des caméras augmentées est "un tournant", selon la Cnil

La Cnil s’est prononcée début décembre 2022 sur le projet de loi relatif aux Jeux olympiques et paralympiques de 2024 qui introduit la possibilité de mettre en œuvre, à titre expérimental, des caméras dites "augmentées". Comme le Conseil d'État, la Cnil appelle à la prudence. Elle met en garde contre un "tournant" et alerte sur "le risque de surveillance automatisée en temps réel", tout en estimant que le texte apporte des garanties. 

Le projet de loi relatif aux Jeux olympiques et paralympiques de 2024, qui entrera en discussion au Sénat le 24 janvier 2023, "présente des enjeux forts en matière de protection des données personnelles et de vie privée", selon la Cnil qui s'est prononcée sur le projet de loi début décembre 2022. La Commission nationale de l'informatique et des libertés rappelle qu'il contient notamment plusieurs dispositions sur la protection des données personnelles dont "l’utilisation de traitements algorithmiques sur les images captées par des dispositifs de vidéoprotection ou des caméras installées sur des drones - appelés également caméras augmentées - afin de détecter et de signaler en temps réel des évènements prédéterminés susceptibles de menacer la sécurité des personnes". En d'autres termes, le gouvernement prévoit d’installer des caméras augmentées dans les espaces publics stratégiques pour détecter les comportements suspects en temps réel dans la foule des visiteurs. Prévu pour assurer la sécurité lors des JO 2024, ce texte inscrit aussi la possibilité d'assurer la sécurité d’évènements autres que sportifs et inclut les événements "festifs ou culturels exposés à des risques d’atteintes graves à la sécurité des personnes, notamment de nature terroriste".

Risque de surveillance automatisée en temps réel

Dans son avis, la Cnil rappelle que le projet de loi crée un "cadre expérimental permettant le recours, dans certaines conditions, à des traitements algorithmiques sur les images captées par les dispositifs de vidéoprotection ou des drones". Ces traitements comportent des systèmes d’intelligence artificielle (IA), appelés "caméras augmentées" dont l'objet est "l’analyse automatique des images en temps réel, par des algorithmes, pour détecter des évènements prédéterminés, par exemple la détection de mouvements de foules, de bagages, de gestes ou de comportements suspects, etc", est-il rappelé. Le terme d'"événements prédéterminés" peut comprendre par exemple des bagages oubliés sur un quai de métro, des mouvements de foule à la sortie des stades ou encore l’étude de la densité de personnes rassemblées au mètre carré pouvant mettre en péril la sécurité.

La Cnil estime que le recours à ces dispositifs soulève "des enjeux nouveaux et substantiels en matière de vie privée : ces outils d’analyse des images peuvent conduire à une collecte massive de données personnelles et permettent une surveillance automatisée en temps réel". "Le déploiement, même expérimental, de ces dispositifs constitue un tournant qui va contribuer à définir le rôle général qui sera attribué à ces technologies, et plus généralement à l’intelligence artificielle", prévient-elle Elle rappelle d'ailleurs que dans sa position, publiée en juillet 2022, elle avait appelé à "fixer des lignes rouges pour ce type de dispositifs et proposé des pistes pour fixer un encadrement adapté s’ils devaient être utilisés pour certains cas d’usage".

Apport de garanties 

La Cnil se félicite toutefois que "les garanties prévues par le projet de loi permettent de limiter les risques d’atteinte aux données et à la vie privée des personnes". La Commission rappelle qu'elles vont dans le sens des ses préconisations formulées dans sa prise de position sur les caméras augmentées de juillet 2022. Elle liste le "déploiement expérimental ; limité dans le temps et l’espace (le dispositif et n’a pas vocation à continuer au-delà du 30 juin 2025); pour certaines finalités spécifiques et correspondant à des risques graves pour les personnes ; l'absence de traitement de données biométriques ; l'absence de rapprochement avec d’autres fichiers ; l'absence de décision automatique et le fait que les algorithmes ne servent qu’à signaler des situations potentiellement problématiques à des personnes qui procèdent ensuite à une analyse humaine".

Doctrine de la Cnil en matière d’IA courant 2023

Rappelons que le Conseil d’État avait lui aussi opté pour une posture incitant à la prudence, dans sa décision du 22 décembre 2020 en interdisant à la préfecture de police de capter des images par drone à des fins de surveillance policière, lors de manifestations sur la voie publique ou dans le cadre des mesures de confinement en vigueur en 2020. La Quadrature du Net, l'association, à l'origine de la saisie du Conseil d'État, s'était félicitée dans un communiqué du même jour de cette "victoire totale contre le gouvernement". En mai 2020, la juridiction administrative avait déjà rendu une décision similaire, privant la préfecture de police de ses drones, quelques semaines après le lancement par les autorités d'un appel d'offres portant sur l'acquisition de 650 drones.

En définitive, l’avis de la Cnil puis du Conseil d’État sur ce projet de loi ont conduit le gouvernement à le modifier : un nouveau texte a été déposé au Sénat le 22 décembre 2022 et qui entrera en discussion au Sénat le 24 janvier 2023. La Cnil souligne qu'elle "ne s’est pas prononcée sur cette nouvelle version du texte".

La Cnil, qui "regrette d’avoir à se prononcer en urgence" sur le texte, ajoute que le dispositif d’expérimentation "ne saurait préjuger d’un éventuel encadrement et du schéma de gouvernance applicables dans la perspective de la proposition de règlement pour l’IA actuellement en cours d’élaboration au niveau européen". Elle annonce travailler à l’élaboration d’une doctrine générale en matière d’IA "qui se traduira notamment par la publication de recommandations dans le courant de l’année 2023".