L’AI Act : un cadre strict avec des exceptions

Date:

Des exclusions dès son application

Depuis le 2 février 2025, plusieurs dispositions de l’AI Act sont en vigueur, avec des exclusions limitant leur portée. Certains systèmes d’intelligence artificielle (IA) échappent au champ d’application du règlement.

Les systèmes d’IA dédiés à des fins militaires, de défense ou de sécurité nationale ne sont pas concernés. Il en va de même pour les autorités publiques et organisations internationales impliquées dans des accords de coopération avec l’Union européenne, sous réserve de garanties sur les droits fondamentaux.

Les systèmes d’IA développés pour la recherche scientifique sont exclus, tout comme les projets expérimentaux avant leur mise sur le marché. Les essais en conditions réelles ne bénéficient pas de cette dérogation.

Par ailleurs, les usages personnels ne sont pas couverts. De même, les systèmes sous licence libre restent hors du champ de l’AI Act, sauf en cas d’usage à haut risque. Le règlement introduit une classification des niveaux de risque de l’IA.

Pratiques interdites et exceptions ciblées

L’article 5 du règlement interdit certaines pratiques d’IA, notamment l’exploitation des vulnérabilités liées à l’âge ou à la situation sociale, ainsi que la notation sociale entraînant des discriminations. L’évaluation du risque criminel uniquement sur un profilage est prohibée, tout comme l’inférence des émotions sur le lieu de travail.

L’identification biométrique à distance en temps réel dans les espaces publics est aussi encadrée. Toutefois, des exceptions existent pour la recherche de victimes, la prévention d’attentats ou la localisation de suspects. Une autorisation préalable est requise, sauf en cas d’urgence où elle peut être obtenue sous 24 heures.

Transparence et obligations différées

L’article 50, applicable en août 2026, impose des obligations de transparence aux fournisseurs et utilisateurs de certains systèmes d’IA. Il s’agit d’informer les utilisateurs lorsqu’ils interagissent avec une IA ou que du contenu est généré artificiellement.

Toutefois, ces obligations ne s’appliquent pas dans certains contextes. Les fournisseurs sont exemptés si les systèmes sont utilisés dans des enquêtes pénales, sauf lorsqu’ils sont accessibles au public pour signaler des infractions.

Une réglementation évolutive

Certains systèmes d’IA à haut risque sont exclus lorsqu’ils relèvent d’autres législations, notamment dans l’aviation ou le ferroviaire. La Commission européenne devra tenir compte des exigences de l’AI Act lors de l’élaboration des normes techniques pour ces secteurs.

Enfin, l’encadrement des modèles d’IA à risque systémique entrera en vigueur en août 2027. Cette classification dépendra de critères comme la puissance du modèle, le volume de données utilisées ou son impact sur le marché européen. La Commission européenne ajustera ces critères en fonction des évolutions technologiques.

L’AI Act se veut strict, mais ses nombreuses exceptions montrent une volonté d’adaptation aux réalités industrielles et sécuritaires. Son application progressive laisse entrevoir des ajustements futurs.

Chloé (EFIMOVE)
Chloé (EFIMOVE)
Efimove.ai est une entreprise spécialisée en intelligence artificielle à destination des entreprises afin de transformer leurs processus métiers. Efimove est également l'une des entreprises précurseuses des solutions RAG IA avec de belles références à son actif.

Suivez-nous :

Newsletter

Formation en intelligence artificielleFormation en intelligence artificielle

Populaires

A lire également
Intelligence Artificielle

Genial : une startup qui mise sur l’IA pour les PME et ETI

Grâce à l’#IA, #Genial aide les PME et ETI à améliorer leurs outils, notamment en #marketing.

Google Career Dreamer : l’IA pour l’orientation professionnelle

#Career #Dreamer s’appuie sur l’#IA pour aider les professionnels à explorer des carrières en lien avec leurs compétences et expériences.#RH

Socotec : déploiement mondial de BlueGen, son IA générative

L’#IA générative de #Socotec améliore la #supply #chain en optimisant l’analyse des risques et la gestion des infrastructures.

Fraude fiscale : comment l’IA renforce la détection ?

L’#IA transforme la #finance en permettant une détection plus fine des fraudes fiscales et une analyse optimisée des déclarations des entreprises.