La Convention-cadre sur l’intelligence artificielle (IA), les droits humains, la démocratie et l’État de droit, adoptée le 17 mai 2024 par le Conseil de l’Europe, a été ouverte à signature le 5 septembre 2024. Parmi les premiers signataires figurent l’Union européenne, les États-Unis, le Royaume-Uni, la Norvège, et d’autres pays tels qu’Israël et la Géorgie. Elle est le premier traité international juridiquement contraignant dans le domaine de l’IA.Ce texte ambitionne de garantir que l’utilisation des systèmes d’IA respecte les droits humains, la démocratie et l’État de droit tout au long de leur cycle de vie.
Des principes fondamentaux pour encadrer l’IA
La Convention, fruit de discussions entre les États membres du Conseil de l’Europe et des observateurs internationaux, prévoit un ensemble de principes destinés à encadrer l’intelligence artificielle. Ces principes incluent l’égalité, la non-discrimination, la dignité humaine, la transparence, la responsabilité et la gestion des risques.
Ils visent également à établir des recours et des mécanismes de réparation pour les utilisateurs affectés par des systèmes d’IA, ainsi qu’à encadrer la gestion des impacts et des risques associés à ces technologies. L’objectif est de créer un cadre juridique solide, capable de minimiser les risques inhérents aux systèmes d’IA tout en mettant en avant leurs avantages.
La question de l’implication des acteurs privés
L’un des points majeurs de cette Convention-Cadre concerne son champ d’application. En effet, celui-ci couvre les activités des autorités publiques ainsi que celles des acteurs privés agissant pour leur compte. Toutefois, les activités des autres acteurs privés ne sont pas automatiquement couvertes. Les États membres ont la possibilité de choisir, par le biais d’une déclaration, de quelle manière ils souhaitent encadrer les risques émanant des systèmes d’IA mis en place par des acteurs privés.
Ce manque de clarté sur les mesures concrètes que les États doivent adopter peut nuire à la prévisibilité et la sécurité juridique, compromettant ainsi l’objectif principal de la Convention. Le secteur privé, étant un acteur clé dans le développement et le déploiement de l’IA, devrait faire l’objet d’une régulation plus explicite afin de garantir que ses activités respectent pleinement les droits humains.
Les exemptions controversées
Le texte de la Convention prévoit également des exemptions importantes. Les activités liées à la sécurité nationale sont ainsi exclues de son champ d’application. Cela signifie que les États peuvent invoquer des raisons de sécurité nationale pour éviter de respecter leurs obligations en matière de droits humains, un point qui inquiète de nombreux observateurs. Cette exemption, bien que prévue dans l’optique de protéger des intérêts légitimes, pourrait être exploitée pour justifier des violations des droits fondamentaux.
Par ailleurs, la Convention- Cadre exclut également les activités de recherche et développement en IA qui ne sont pas encore disponibles pour un usage public. Cela crée une zone grise, permettant potentiellement le développement de technologies susceptibles de violer les droits humains sans contrôle initial.
Enfin, la Convention exclut également les systèmes d’IA développés à des fins de défense nationale. Cette exemption suscite des inquiétudes concernant l’utilisation de l’IA pour des applications militaires, telles que les armes autonomes, sans mettre en place de garanties suffisantes pour préserver les droits humains.
Différences entre la Convention-cadre sur l’IA et l’IA Act
La Convention-cadre sur l’IA est distincte de l‘IA Act de l’Union européenne. L’IA Act vise à réglementer les risques associés à l’utilisation de l’IA au sein du marché unique européen, en adoptant une approche basée sur le niveau de risque des systèmes. En revanche, la Convention-cadre du Conseil de l’Europe adopte une perspective plus globale, incluant la protection des droits humains, de la démocratie et de l’État de droit.
L’IA Act met principalement l’accent sur la conformité technique et les exigences de sécurité, tandis que la Convention-cadre se concentre sur l’alignement des activités de l’IA avec les valeurs fondamentales des sociétés démocratiques. Bien que ces deux instruments soient complémentaires, ils répondent à des objectifs différents et s’appliquent dans des contextes géographiques distincts.
L’adoption de la Convention-cadre sur l’IA est une opportunité pour les États de démontrer leur engagement en faveur d’une utilisation de l’intelligence artificielle respectueuse des droits humains. En veillant à une mise en œuvre rigoureuse et inclusive, les États peuvent s’assurer que l’IA contribue à renforcer, plutôt qu’à affaiblir, les valeurs fondamentales de la société.