Le Conseil d’Etat dessine la voie pour une intelligence artificielle d’intérêt public

A la demande du gouvernement, le Conseil d’Etat a planché sur l’intelligence artificielle au service de l’intérêt général. Pour la haute juridiction, l'IA offre une "opportunité unique" pour améliorer le service public. Sous réserve que l’Etat réussisse à créer la confiance et s’en donne les moyens humains et techniques.

Si les missions et rapports se sont succédé ces dernières années sur l’intelligence artificielle, il manquait une approche centrée exclusivement sur le service public. Un sujet sur lequel le gouvernement a demandé au Conseil d’Etat de plancher. Publiée le 30 août 2022, sa contribution de 360 pages fourmille de clarifications, d’exemples et de préconisations concrètes. Car au-delà d’un panorama des bénéfices et des risques inhérents aux systèmes d’intelligence artificielle (SIA), le Conseil d’Etat dresse la liste des conditions nécessaires à leur déploiement massif.

Des technologies présentes mais sous-exploitées

Le Conseil d’Etat constate que les SIA sont déjà présents dans le secteur public même si beaucoup de cas d’usage restent "au stade de l’expérimentation" ou ne "mobilisent pas les techniques d’apprentissage machine". Dans une cartographie annexée au rapport, la gestion des territoires arrive en bonne place (voir ci-dessous) aux côtés de la défense-sécurité, de la lutte contre la fraude, de l’appariement entre offre et demande d’emploi, de la prévention du décrochage scolaire ou encore de l’aide au diagnostic médical. Des usages qui s’appuient sur plusieurs familles de technologies : analyse d’images pour reconnaitre des formes, des objets ou des personnes ; analyse du langage naturel et de textes écrits ; traitement massif de données issues de capteurs ; robotique… Pour dépasser des usages encore largement embryonnaires, le rapport estime urgent de "prendre conscience du potentiel de performance des SIA" et de leur "sous exploitation par les collectivités publiques", "aucun domaine de l’action publique n’est imperméable à ces systèmes et n’a, a priori, vocation à l’être".

Des craintes "largement exagérées"

Le Conseil d’Etat balaie les craintes suscitées par l’IA (asservissement de l’humain par la machine, manipulation des comportements, surveillance de masse…) qualifiées de "largement exagérées". Technologie à la main de l’humain, un SIA permet par exemple autant de lutter contre la fraude aux aides sociales qu’une détection automatique du non-recours au droit. Quant à la prise de décisions administratives entièrement automatisées, elle resterait "très minoritaire". Les biais algorithmiques, sources de potentielles discriminations, seraient pour leur part largement imputables au manque de maturité des technologies utilisées là où des discriminations ont été constatées. Pour contrer ce risque, bien réel, les experts invitent à une évaluation préalable des SIA publics et à une analyse critique de données d’apprentissage. La crainte sur l’emploi est enfin relativisée : "le remplacement massif des agents reste purement théorique en l’état des techniques et largement hypothétique" et en définitive, "le choix de réduire ou redéployer les effectifs appartient aux pouvoirs publics, pas aux SIA".

Des principes mais pas d’interdiction

Les conditions d’un déploiement massif des SIA dans le secteur public sont cependant loin d’être réunies. En premier lieu parce que "l’acceptabilité sociale des SIA publics n’est pas définitivement acquise et ne le sera sans doute jamais entièrement". Pour instaurer la confiance, le Conseil d’Etat recommande de développer la culture numérique des citoyens et d’adopter un code de bonne conduite. L’adoption d’une législation cadre n’a pas ses faveurs, jugée "trop rigide et rapidement dépassée". Celle-ci propose ainsi d’asseoir le recours à l’IA dans la sphère publique sur sept principes : "la primauté humaine, la performance, l’équité et la non-discrimination, la transparence, la sûreté (cybersécurité), la soutenabilité environnementale et l’autonomie stratégique".

Favorable à l’approche par les risques et les usages retenue par l’Union européenne, il estime qu’il faut "accueillir avec prudence l’idée d’interdictions propres aux SIA". En particulier, il serait "inopportun" d’interdire la reconnaissance faciale dans l’espace public, comme le souhaiteraient les Cnil européennes. Il valide les finalités d’intérêt général de la reconnaissance biométrique dans l’espace public (recherche de terroristes, enlèvement d’enfant…) dès lors qu’elles sont soumises à un "encadrement des plus stricts".

Concevoir une stratégie volontariste et lucide

Plaidant pour une stratégie "volontariste et lucide" de déploiement d’une IA de confiance, la haute juridiction invite l’Etat à trouver un équilibre entre le développent d’IA à usage interne, comme la lutte contre la fraude, et l’IA "de service", bénéficiant directement au citoyen. Pour y arriver, l’Etat devra former les dirigeants publics à la culture de la donnée, recruter des datascientists et se doter des ressources techniques nécessaires. A cet égard le Conseil d’Etat met en garde contre la tentation de l’externalisation, elle pourrait entrainer une perte de souveraineté sans que les agents publics soient en mesure de piloter les projets. Il préconise de renforcer les moyens d’Etalab et de l’ANCT. Deux structures amenées à faire de l’État "un possible prestataire de services et pourvoyeur de ressources, y compris humaines, pour les collectivités territoriales". La Cnil verrait pour sa part son rôle renforcé pour "incarner et internaliser le double enjeu de la protection des droits et libertés fondamentaux, d’une part, et de l’innovation et de la performance publique, d’autre part".

Les SIA au service des territoires

Dans sa cartographie des usages, le rapport mentionne l’analyse du trafic routier, l’aide au stationnement ou encore le pilotage par la donnée de la gestion de l’eau et des déchets. L’analyse des données géospatiales passe également par les SIA pour identifier l’usage des sols, piloter l’urbanisation et lutter contre le réchauffement climatique. Autres cas d’usage, dans les administrations, où les algorithmes de traitement du langage se déploient pour aiguiller les usagers, aider à la réalisation de formalités ou anonymiser des données. La sécurité dans l’espace public est enfin le troisième domaine dans lequel les SIA prospèrent - détection d’objets ou de situations anormales – cette catégorie d’usage suscitant le plus de débats.