Développée sous l’impulsion du Conseil de l’Europe, la méthodologie HUDERIA (Human Rights, Democracy and Rule of Law Impact Assessment) vise à protéger les droits de l’homme, la démocratie et l’État de droit tout en évaluant les risques des systèmes d’IA. Cette approche structurée permet d’analyser les risques tout au long du cycle de vie des technologies d’IA et de proposer des garde-fous pertinents. En s’appuyant sur une approche élaborée, cette méthodologie permet d’évaluer les risques présents tout au long du cycle de vie des technologies d’IA et de proposer des garde-fous pertinents.
Une analyse contextuelle des risques d’IA
Le Comité ad hoc sur l’intelligence artificielle (CAHAI) a développé l’initiative HUDERIA à partir de 2019. Son but est de prévenir et réduire les risques liés aux systèmes d’IA, en particulier leurs impacts sur les droits fondamentaux. La méthodologie repose sur une analyse contextuelle dénommée, qui évalue le cadre socio-technique des IA pour offrir une vision complète des risques potentiels. Les acteurs publics comme privés peuvent appliquer HUDERIA, ce qui facilite l’identification et le traitement des risques.
Engager les parties prenantes
La méthodologie prévoit l’engagement des parties prenantes, incluant les concepteurs, utilisateurs, régulateurs et groupes potentiellement vulnérables. Ce processus de consultation permet de mieux cerner les risques et de les contextualiser grâce aux retours des personnes concernées. Ce dialogue permet de garantir que les risques identifiés tiennent compte des réalités socio-économiques et technologiques actuelles.
Des évaluations des risques différenciées
HUDERIA inclut une évaluation des risques et des impacts afin de mesurer la probabilité et la gravité des conséquences potentielles sur les droits fondamentaux. L’intensité de l’évaluation dépend du contexte d’utilisation du système d’IA. Par exemple, une IA appliquée au recrutement fera l’objet d’une évaluation plus rigoureuse pour identifier les risques de biais discriminatoires.
HUDERIA et la Convention-cadre sur l’IA
La méthodologie HUDERIA est conçue pour être complémentaire à la Convention-cadre sur l’intelligence artificielle (IA) du Conseil de l’Europe. HUDERIA se concentre principalement sur l’évaluation des risques et l’atténuation des impacts des systèmes d’IA sur les droits fondamentaux, tandis que la Convention-cadre établit un cadre juridique et des principes directeurs pour la gouvernance de l’IA. Ensemble, ces deux outils permettent de renforcer la gouvernance de l’IA, en couvrant à la fois les aspects normatifs et les mesures pratiques nécessaires pour protéger les droits humains, la démocratie et l’État de droit tout au long du cycle de vie des systèmes d’IA.
Un processus itératif pour une IA éthique
La méthodologie HUDERIA suit une approche dynamique, imposant des réévaluations régulières afin de s’assurer que les systèmes d’IA respectent les normes éthiques. Cela permet de s’adapter aux évolutions technologiques et contextuelles, tout en réduisant les risques émergents.
Le Comité sur l’intelligence artificielle du Conseil de l’Europe a adopté HUDERIA en 2024 et la complétera par un modèle pratique d’ici 2025 pour renforcer son opérationnalité et répondre aux besoins variés des utilisateurs.