L’Union européenne a franchi une étape majeure dans la régulation de l’intelligence artificielle avec l’adoption de l‘IA Act, publié au Journal officiel le 12 juillet 2024. Cette législation vise à encadrer le développement et l’utilisation de l’IA au sein de l’UE. Découvrons les principaux aspects de cette loi et ses implications pour les entreprises et professionnels.
Qu’est-ce que l’IA Act ?
L’IA Act, proposé par la Commission européenne en avril 2021, est la première législation mondiale spécifiquement dédiée à l’intelligence artificielle. Son objectif principal est de réguler l’utilisation des systèmes d’IA en fonction de leur niveau de risque, tout en protégeant les droits fondamentaux des citoyens européens et en encourageant l’innovation.
Les entreprises développant ou déployant des systèmes d’IA, à titre professionnel, devront se conformer à des règles strictes. Notamment pour les applications à haut risque telles que la reconnaissance faciale ou le recrutement.
Les catégories de risque définies par l’IA Act
L’un des aspects clés de l’IA Act est la classification des systèmes d’intelligence artificielle en fonction de leur niveau de risque. Voici les quatre catégories définies par le règlement :
- Risque inacceptable
Cette catégorie inclut les systèmes d’IA considérés comme une menace pour les droits et libertés fondamentaux des personnes. Par exemple, les technologies de notation sociale ou certains systèmes de surveillance de masse entrent dans cette catégorie. Ces systèmes seront strictement interdits au sein de l’Union européenne.
- Risque élevé
Les systèmes d’IA qui présentent un risque élevé pour la sécurité ou les droits des individus sont autorisés, mais soumis à des réglementations strictes. Il s’agit notamment des applications utilisées dans les secteurs de la santé, de l’éducation, de la justice et de l’emploi. Les entreprises devront fournir des garanties en termes de transparence, de traçabilité des données et de surveillance humaine pour éviter les biais et les discriminations.
- Risque limité
Cette catégorie comprend les systèmes qui nécessitent une transparence modérée, comme les chatbots ou les systèmes de reconnaissance d’images. Les utilisateurs doivent être informés qu’ils interagissent avec un système d’IA, mais aucune obligation réglementaire supplémentaire n’est imposée.
- Risque minime
Les systèmes d’IA à faible risque, tels que les filtres anti-spam ou les recommandations de films, ne sont soumis à aucune réglementation spécifique. Ils représentent la majorité des applications d’IA actuellement sur le marché.
Impact pour les entreprises
Les entreprises européennes, ou souhaitant opérer en Europe, devront se conformer aux nouvelles exigences, notamment pour les systèmes à haut risque. Les principales obligations incluent :
- Mise en place d’un système de gestion des risques
- Utilisation de données de haute qualité pour l’entraînement des modèles
- Documentation détaillée des systèmes
- Transparence et information des utilisateurs
- Surveillance humaine appropriée
- Garantie de robustesse, précision et cybersécurité des systèmes
Le non-respect des règles peut entraîner des amendes substantielles, comme indiqué dans l’article 99 du IA ACT “est passible d’amendes administratives pouvant aller jusqu’à 15 000 000 EUR ou, si le contrevenant est une entreprise, jusqu’à 3 % de son chiffre d’affaires annuel mondial total pour l’exercice précédent, le montant le plus élevé étant retenu”. Pour les IA à “risque inacceptable” les amendes iront jusqu’à 35 000 000 EUR ou jusqu’à 7 % du chiffre d’affaires annuel.
Les actions à envisager
L’IA Act impose aux entreprises de repenser leur utilisation de l’IA. Voici quelques actions à envisager :
- Évaluez vos systèmes d’IA selon la classification de l’IA Act.
- Mettez en place des processus internes pour assurer la conformité.
- Formez vos équipes sur les exigences légales et les bonnes pratiques en IA.
- Intégrez les coûts de conformité dans vos budgets.
- Restez à jour sur les évolutions réglementaires et les directives européennes.
Conclusion
L’IA Act marque un tournant décisif dans la régulation de l’intelligence artificielle au niveau européen. Son approche fondée sur l’évaluation des risques permet de protéger les citoyens tout en soutenant l’innovation. Pour les entreprises, cette nouvelle législation implique de nouveaux défis, mais aussi des opportunités pour s’adapter à un cadre plus clair et sécurisé. En anticipant et en se conformant aux exigences de l’IA Act, les organisations pourront tirer parti des avancées de l’IA tout en minimisant les risques associés à ces technologies.