Les négociations sur le règlement européen sur l'intelligence artificielle piétinent
À ce stade, il n'est pas certain que le cadre européen sur l'intelligence artificielle (IA act) aboutisse d'ici la fin de l'année 2023. Les négociations entre les instances européennes s'avèrent particulièrement tendues sur les usages interdits de l'IA et l'opportunité de réguler l'IA générative.
Les tractations en vue de l'adoption du règlement européen sur l'intelligence artificielle (IA Act) se révèlent plus difficiles que prévues. Pour mémoire, le règlement, adopté par le Parlement européen en mai 2023, est depuis lors l'objet de négociations au sein du trilogue (Parlement, Conseil et Commission européenne). Selon Euractiv, la présidence espagnole de l'Union européenne a demandé de "la souplesse" aux parties prenantes le 24 novembre et propose des pistes de compromis dans l'espoir de faire adopter le texte par le trilogue du 6 décembre 2023. Les négociations portent sur deux points : le champ des IA interdites et la régulation applicables aux IA génératives.
Restriction du champ des usages interdits
Les députés européens ont ainsi étendu la liste des pratiques interdites avec l'IA car présentant des risques jugés "inacceptables". Or certains États, dont la France, ne veulent pas totalement fermer la porte à la reconnaissance faciale et des émotions en temps réel tout en la réservant exclusivement aux forces de l'ordre. Selon Euractiv, "la présidence espagnole suggère d'accepter l'interdiction de la capture non ciblée d'images faciales, de la reconnaissance des émotions sur le lieu de travail et dans les établissements d'enseignement, de la catégorisation biométrique pour déduire des données sensibles telles que l'orientation sexuelle et les croyances religieuses, et de la police prédictive des individus". Les parlementaires auraient en revanche abandonné l'idée d'interdire totalement l'identification biométrique en temps réel en échange de garanties supplémentaires. Les systèmes d'IA utilisés par les forces de l'ordre devraient aussi être répertoriés dans la base de données des systèmes à haut risque, dans une section non publique. Par ailleurs, tous les systèmes d'IA déployés par les forces de l'ordre devront être rendus conformes à l'IA Act d'ici à 2030. Enfin, les IA à usage militaire devraient sortir du champ d'application du règlement européen et les IA à haut risque pourraient, sous certaines conditions, déroger à la lourde procédure de conformité mise en place par le règlement.
Régulation de l'IA générative prématurée ?
L'autre point d'achoppement porte sur la régulation des "modèles de fondation" utilisées par les IA génératives comme Chat GPT. Introduite par les députés européens – en 2020 les IA génératives n'avaient pas été prises en compte dans le projet de règlement de la Commission – cette régulation est jugée prématurée et nuisible à l'innovation par les entreprises européennes. Digital Europe, le lobby européen des grandes entreprises du numérique, a demandé le 23 novembre à réduire les obligations des IA génératives à des "obligations de transparence" estimant "la loi sur l'IA n'est pas tenue de réglementer toutes les nouvelles technologies". Digital Europe estime aussi que "le concept de modèles de fondation 'très performants' ou 'à fort impact' ne peut pas être mesuré et n'est pas à l'épreuve du temps". Ces positions ont trouvé un écho favorable auprès de la France, l'Italie et l'Allemagne. Dans la lignée de leur déclaration commune sur l'IA du 30 octobre disant vouloir "veiller à ce que la législation de l'UE soit conçue sans bureaucratie inutile et que les formalités administratives existantes soient réduites", les trois pays ont plaidé pour que les obligations pesant sur les IA génératives se limitent au respect d'un code de bonne conduite.
Code de bonne conduite
D'après Euractiv, le compromis mis sur la table fin novembre par la présidence espagnole ne remet cependant pas fondamentalement en cause la régulation des IA génératives qui entrent dans le champ des IA à usage général. Le texte maintient une approche par niveau de risque en distinguant les "modèles d'IA à usage général" et les "systèmes d'IA à usage général" soumis chacun à des obligations spécifiques. Le niveau de régulation des IA générales serait fondé sur l'existence de "risques systémiques" avérés et la puissance de calcul utilisée pour l'apprentissage des modèles. Un mécanisme de seuil serait prévu pour éviter de soumettre les jeunes entreprises européennes à des obligations trop lourdes. Une large partie des obligations proposées par les députés initialement devraient cependant être remplacées par un code de bonne conduite portant sur des sujets tels que la transparence des sources ou le marquage des images et textes créés par l'IA. Aucune sanction ne pèserait cependant sur les entreprises ne respectant pas ce code de bonne conduite.