Quand France Travail teste l'IA avec le profilage algorithmique des usagers
La Quadrature du Net a dénoncé fin juin les pratiques de contrôles de France Travail sur ses usagers. L'association estime que l'ancien Pôle emploi multiplie "les expérimentations de profilage algorithmique des personnes sans emploi". Une pratique qu'elle avait aussi pointé du doigt au sein de la Caisse d'allocations familiales (CAF) dès 2022. Le directeur de France Travail estime lui que l'IA est utilisée comme un "outil d'aide à la décision pour les conseillers" et comme un "moyen de leur libérer du temps administratif".
Au nom de la "rationalisation de l'action publique et d'une promesse d'accompagnement personnalisé et de relation augmentée, se dessine ainsi l'horizon d'un service public de l'emploi largement automatisé". La Quadrature du Net, qui se présente comme le "défenseur des libertés fondamentales dans l'environnement numérique" a publié, fin juin 2024, un article dénonçant "les expérimentations de profilage algorithmique des personnes sans emploi" au sein de France Travail. "Cette automatisation est rendue possible par le recours à une myriade d'algorithmes qui, de l'inscription au suivi régulier, se voient chargés d'analyser nos données afin de mieux nous évaluer, nous trier et nous classer", s'offusque la Quadrature qui y voit "une extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l'accompagnement social".
Un "score de suspicion" pour lutter contre la fraude
Comme ce fut le cas pour la Caisse d'allocations familiales (CAF), c'est pour "lutter contre la fraude" que fut développé le premier algorithme de profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement les personnes sans emploi furent lancés dès 2013 dans la foulée de l'officialisation par la CAF de son algorithme de notation des allocataires, elle aussi dénoncée par la Quadrature. Puis en 2018, la notation des chômeurs s'est généralisée. "Ses dirigeants expliquent que l'algorithme assigne un 'score de suspicion' visant à détecter les chômeurs les plus susceptibles 'd'escroquerie' grâce à l'exploitation de 'signaux faibles'", explique la Quadrature du Net. "Une fois l'ensemble des personnes sans emploi notées, un 'système d'alertes' déclenche ainsi des contrôles lorsque l'algorithme détecte des situations 'suspectes'", poursuit l'association, citant France Travail au travers de différents documents (1). Les situations suspectes évoquées sont les emplois fictifs, les usurpations d'identité, la reprise d'emploi non déclarée, etc.
"Potentiel de recrutement"
Fort de cette première expérience, France Travail a décidé d'accroître l'usage d'algorithmes de profilage en mettant l'intelligence artificielle "au service de l'emploi" pour "révéler à chaque demandeur d'emploi son potentiel de recrutement". Dès 2018, un programme "Intelligence Emploi" est lancé. La Quadrature s'intéresse notamment à deux cas d'usage. Le premier est le développement d'algorithmes visant à "anticiper les éventuels décrochages", prévenir les "risques de rupture" ou encore "détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité". Le second cas doit déterminer la "qualité" d'un demandeur d'emploi ; ce que France Travail nomme son "employabilité".
Tout récemment encore, un arrêté, publié au Journal officiel le 16 juillet 2024 - dont l'entrée en vigueur est fixée au 1er janvier 2025 - établit des règles pour que les systèmes informatiques des membres du réseau pour l'emploi puissent mieux communiquer entre eux. L'arrêté précise le contenu et l'objet du cahier des charges du système d'information qui doit permettre à l'ensemble de ces acteurs d'échanger leurs données (voir notre article du 16 juillet 2024). Car le système d’information Plateforme créé par France Travail a été ouvert à l'ensemble des acteurs du réseau pour l'emploi. Les partenaires jouent ainsi la carte de "l’interopérabilité" pour "davantage de fluidité dans les échanges entre les différents acteurs".
L'IA comme outil d'aide à la décision, pour libérer du temps
À la suite de la publication de l'article de la Quadrature, France Travail, via son directeur général, Thibaut Guilluy, a souhaité exercer son droit de réponse qui a été publié le 12 juillet 2024 in extenso sur le site de la Quadrature. De cette réponse, l'on retiendra que France Travail "s'inscrit en faux contre ces propos erronés" qui conduisent […] "à travestir la réalité concernant l'usage que nous faisons de ces algorithmes".
Thibaut Guilluy souligne que l'intelligence artificielle vient en complément et ne se substitue jamais à une intervention humaine. "Nous concevons les algorithmes et l'IA comme des outils d'aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l'accompagnement des demandeurs d'emploi", poursuit-il.
Il mentionne par ailleurs que toute utilisation d'algorithmes est en outre encadrée par une charte éthique. Selon lui, celle-ci décrit des "engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l'opposé de toute notation de chômeurs". Il réfute enfin l'expression de "flicage des plus précaire" pour décrire "les outils de surveillance des allocataires du RSA".
(1) L'expression "score de suspicion" est extraite de l'analyse d'impact disponible ici, celle de "signaux faibles" d'une note de suivi des travaux OCAPI 2018 disponible ici, celle d'"indices" de l'article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d'"escroquerie", il est issu d’un échange de mails avec un responsable de France Travail.