Les lignes directrices précisant le mode d'emploi de l'IA Act se font attendre

Depuis le 2 février 2025, les systèmes d'IA présentant un "risque inacceptable" sont interdits en Europe selon le calendrier prévu par le règlement européen sur l'intelligence artificielle (IA Act). Ces interdictions, listées par l'article 5 du règlement, concernent les systèmes d'IA qui manipulent les décisions des personnes ou exploitent leurs vulnérabilités, ceux qui évaluent ou classent les personnes en fonction de leur comportement social ou de leurs traits personnels, et des systèmes de prédiction de crime. Les IA qui récupèrent des images faciales sur internet ou des images de vidéosurveillance, qui déduisent des émotions sur le lieu de travail ou dans les établissements d'enseignement, et qui classent les personnes sur la base de leurs caractéristiques physiques sont également visées. 
Les entreprises qui enfreignent ces règles risquent des amendes pouvant atteindre 35 millions d'euros ou 7% de leur chiffre d'affaires annuel.

L'effectivité de ces interdictions est cependant suspendue à la publication de lignes directrices. Dans un communiqué daté du 3 février, la Commission européenne les annonce sans préciser quand elles seront publiées. Elles doivent fournir une interprétation opérationnelle des dispositions de l'article 5 et éviter toute divergence d'interprétation entre les États membres. Les autorités publiques – donc potentiellement les collectivités – attendent aussi des précisions sur les exceptions introduites par le texte en matière d'identification biométrique à distance dans l'espace public à des fins policières (recherche d'une victime d’enlèvement, prévention d'une menace terroriste).