Un institut et une fondation créés pour promouvoir une IA sûre et au service de l'intérêt général

À quelques jours du sommet international sur l'IA les 10 et 11 février 2025, la France vient de dévoiler deux initiatives pour promouvoir le développement d'une IA responsable, éthique et sécurisée.

La ministre déléguée chargée de l'Intelligence artificielle et du numérique, Clara Chappaz, a annoncé le 31 janvier la création de l'Institut national de l'évaluation et de la sécurité de l'IA (Inesia). "La confiance est le fondement de la diffusion de l'IA dans l'ensemble de la société", a souligné la ministre. Soutenu par France 2030, l'institut s'appuiera notamment sur l'Anssi, l'Inria et le pôle d'expertise de la régulation numérique (PEReN). Sa mission s'articulera autour de trois axes : 
- l'évaluation de la fiabilité et de la performance des modèles d'IA ;
- l'analyse de leur sécurité ;
- l'appui à la régulation. 
Il sera aussi chargé de promouvoir les bonnes pratiques. L'Inesia rejoint ainsi le réseau des dix instituts de sécurité de l'IA dans le monde. Son budget et son articulation avec la Cnil, positionnée aussi sur la régulation de l'IA, n'ont pas été précisés.

La seconde annonce concerne la création d'une fondation dédiée à l'IA d'intérêt général. Basée à Paris, la fondation promet de lever 2,5 milliards d'euros sur cinq ans, dont 500 millions dès cette année. Sa vocation sera de constituer et gérer des bases de données d'intérêt général. "L'idée est de créer un cadre de confiance pour rassembler ces données, qui seraient librement accessibles aux chercheurs et vendues à un prix modique aux start-up", a expliqué Anne Bouverot, chargée par l'Élysée de préparer le sommet de l'IA.