Des exclusions dès son application
Depuis le 2 février 2025, plusieurs dispositions de l’AI Act sont en vigueur, avec des exclusions limitant leur portée. Certains systèmes d’intelligence artificielle (IA) échappent au champ d’application du règlement.
Les systèmes d’IA dédiés à des fins militaires, de défense ou de sécurité nationale ne sont pas concernés. Il en va de même pour les autorités publiques et organisations internationales impliquées dans des accords de coopération avec l’Union européenne, sous réserve de garanties sur les droits fondamentaux.
Les systèmes d’IA développés pour la recherche scientifique sont exclus, tout comme les projets expérimentaux avant leur mise sur le marché. Les essais en conditions réelles ne bénéficient pas de cette dérogation.
Par ailleurs, les usages personnels ne sont pas couverts. De même, les systèmes sous licence libre restent hors du champ de l’AI Act, sauf en cas d’usage à haut risque. Le règlement introduit une classification des niveaux de risque de l’IA.
Pratiques interdites et exceptions ciblées
L’article 5 du règlement interdit certaines pratiques d’IA, notamment l’exploitation des vulnérabilités liées à l’âge ou à la situation sociale, ainsi que la notation sociale entraînant des discriminations. L’évaluation du risque criminel uniquement sur un profilage est prohibée, tout comme l’inférence des émotions sur le lieu de travail.
L’identification biométrique à distance en temps réel dans les espaces publics est aussi encadrée. Toutefois, des exceptions existent pour la recherche de victimes, la prévention d’attentats ou la localisation de suspects. Une autorisation préalable est requise, sauf en cas d’urgence où elle peut être obtenue sous 24 heures.
Transparence et obligations différées
L’article 50, applicable en août 2026, impose des obligations de transparence aux fournisseurs et utilisateurs de certains systèmes d’IA. Il s’agit d’informer les utilisateurs lorsqu’ils interagissent avec une IA ou que du contenu est généré artificiellement.
Toutefois, ces obligations ne s’appliquent pas dans certains contextes. Les fournisseurs sont exemptés si les systèmes sont utilisés dans des enquêtes pénales, sauf lorsqu’ils sont accessibles au public pour signaler des infractions.
Une réglementation évolutive
Certains systèmes d’IA à haut risque sont exclus lorsqu’ils relèvent d’autres législations, notamment dans l’aviation ou le ferroviaire. La Commission européenne devra tenir compte des exigences de l’AI Act lors de l’élaboration des normes techniques pour ces secteurs.
Enfin, l’encadrement des modèles d’IA à risque systémique entrera en vigueur en août 2027. Cette classification dépendra de critères comme la puissance du modèle, le volume de données utilisées ou son impact sur le marché européen. La Commission européenne ajustera ces critères en fonction des évolutions technologiques.
L’AI Act se veut strict, mais ses nombreuses exceptions montrent une volonté d’adaptation aux réalités industrielles et sécuritaires. Son application progressive laisse entrevoir des ajustements futurs.