IA et services publics : les citoyens réclament un déploiement maîtrisé

A l'occasion du sommet de l'IA, le Conseil économique, social et environnemental (Cese) a consacré une matinée à "la place du citoyen dans l'IA". Face aux effets potentiellement dévastateurs de l'IA sur la qualité du service public et l'emploi, les représentants de la société civile ont plaidé pour un encadrement de la technologie, seul à même de créer la confiance. Les dérives des algorithmes publics existants en sont déjà la preuve.

Dans le cadre du sommet de l'IA, le Conseil économique, social et environnemental (Cese) a convié des représentants de la société civile à échanger sur la place du citoyen dans l'IA, dans la continuité de son avis sur l'IA adopté à la mi-janvier (voir notre article). Deux tables rondes étaient organisées le 7 février, la première consacrée aux enjeux démocratiques, la seconde au dialogue social à l'heure de l'IA. 

Manque de transparence des algorithmes existants

Les responsables associatifs, élus et représentants syndicaux ont rappelé que l'IA était d'ores et déjà bien implantée même si jusqu'à présent, on parlait d'algorithmes plus que d'IA. Or le bilan de ceux-ci est mitigé. Didier Minot, du collectif Changer de cap, à l'origine d'un appel à témoignages sur les dérives des algorithmes publics, dénonce ainsi des "suspensions de droits sans préavis ni respect du contradictoire" aux caisses d'allocations familiales (CAF), où des "erreurs ou incompréhensions sont qualifiées de fraude". Des décisions automatisées qui, faute d'explications, ont aussi pour conséquence de "priver les allocataires de la possibilité de les contester". La représentante du Défenseur des droits confirme cette réalité, soulignant que ces algorithmes opèrent "dans des domaines essentiels, voire critiques comme l'éducation, la santé, les prestations sociales, l'immigration, la défense".  Et si les obligations de transparence des algorithmes [portant sur des décisions administratives individuelles] sont inscrites dans la loi, force est de constater qu'elles sont peu respectées. Soizic Pénicaud, de l'Observatoire des algorithmes publics (ODAP) déplore "qu'il n'existe pas de panorama exhaustif des algorithmes utilisés dans les administrations", ces dernières "ne les documentant que très peu publiquement malgré les obligations légales". Autre grief, une externalisation de la conception des algorithmes à des prestataires privés qui aboutit à "une perte de contrôle croissante de la part des administrations" selon Didier Minot.

Inquiétude des citoyens sur l'IA

Autant dire que dans ce contexte, les perspectives d'un déploiement massif de l'IA tel qu'annoncé par le gouvernement (notre article) inquiète. Ce sentiment est confirmé par l'étude de Make.org, qui a recueilli l'avis de 11.000 personnes du monde entier dans la perspective du sommet de l'IA. Une étude qui a montré une "grande convergence entre l'avis des citoyens et des experts" souligne Axel Dauchez, président de Make.org. Ainsi, l'usage de l'IA dans les services publics divise : si 40% jugent que l'IA peut réduire les coûts administratifs (40%), 44% sont hostiles à son déploiement. Le maintien d'une décision administrative humaine fait pour sa part la quasi-unanimité avec 83%, notamment pour ce qui concerne les impôts et les calculs d'allocations. Ils sont 72% à demander un encadrement de l'IA pour garantir que cette technologie serve l'intérêt général, réduise les inégalités et crée la confiance. Un encadrement qui existe, a souligné Éric Delisle de la Cnil, citant l'IA Act et, surtout, le RGPD : "Le principe cardinal du RGPD, c’est la proportionnalité. Il faut mettre en balance les intérêts poursuivis par l’IA et les droits des individus".

Concertations locales sur l'IA

Les craintes exprimées motivent les territoires à se doter d'une boussole sur l'IA, préoccupation au cœur des concertations citoyennes menées à Paris et Rennes. A Paris, où la ville expérimente déjà l'IA pour analyser les remontées des citoyens sur l'espace public ou améliorer l'information sur l'aide sociale, le déclencheur a été l'irruption de l'IA générative en 2022. "Car cette technologie affecte le quotidien des citoyens", insiste Alice Rousset, en charge de l'attractivité territoriale à la ville de Paris. Les auditions et consultations organisées par la ville ont montré notamment le besoin de formation et le souhait d'un usage responsable de l'IA. Sur cette base, la ville finalise un cadre d'usage de l'IA, comprenant notamment la réalisation d'études d'impact préalables et un suivi des systèmes d'IA déployés associant les citoyens. A Rennes, c'est le conseil citoyen du numérique responsable, composé d'une trentaine de citoyens tirés au sort, qui a défini la feuille de route de la collectivité. A l'issue d'un cycle d'auditions, ce conseil a appelé à déployer une technologie "responsable, éthique, inclusive, respectueuse des valeurs éthiques, environnementales et démocratiques". "Des recommandations qui font écho à celle du Cese", a souligné Pierre Jannin, conseiller municipal de Rennes, qui incite les territoires à initier des démarches similaires avec l'appui des Interconnectés (voir notre article).

Des instances sociales peu associées

La table ronde sur "le dialogue social à l'heure de l'IA" a pour sa part mis en lumière le manque d'association des agents dans les projets des grandes administrations. Benjamin Gandouin du syndicat Solidaires Finances publiques souligne pourtant que l’IA "modifie en profondeur les métiers", citant le cas de la logistique, où "les ouvriers perdent leur autonomie et doivent suivre des scripts imposés par des algorithmes". L'IA provoque en outre une intensification du travail, avec une accélération de 10 à 15% des tâches, selon une étude de l’institut national de recherche et de sécurité (INRS), ce qui "réduit les espaces de parole et de décision des salariés". Le syndicaliste déplore aussi que "les évolutions technologiques ne font jamais ou rarement l'objet de bilans", ces derniers n'étant "jamais discutés dans les instances de dialogue social",  comme cela a été le cas pour le projet CFVR (ciblage de la fraude et valorisation des requêtes). Pour Franca Salis-Madinier, de la CFDT Cadres, "il faut que les salariés soient formés et informés sur les impacts de ces technologies", insistant sur "l’importance du dialogue social pour anticiper ces changements et prévenir les risques professionnels liés à l’IA". Une opinion partagée par David Gaborieau, sociologue, qui estime que "les travailleurs doivent être accompagnés pour comprendre et maîtriser ces nouveaux outils, afin de ne pas subir les changements mais d’y participer activement".