INESIA : garantir la sécurité et la fiabilité de l’IA
Clara Chappaz a annoncé la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Cette initiative suit la Déclaration de Séoul, adoptée en mai 2024. Plusieurs pays, dont la France, soutiennent une intelligence artificielle (IA) responsable et sécurisée. L’objectif est de structurer les efforts nationaux pour garantir la fiabilité et la sûreté des systèmes d’intelligence artificielle.
L’’INESIA sera supervisé par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE). Il fédérera les principaux acteurs de la recherche et de l’évaluation de l’IA, dont l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN).
Sécuriser l’IA : un enjeu pour son développement
L’intelligence artificielle se déploie dans des secteurs critiques comme la santé, l’éducation ou encore l’industrie. Son développement doit donc s’accompagner d’une vigilance accrue sur les risques qu’elle pourrait engendrer. L’INESIA analysera les risques systémiques liés à l’IA. Il veillera à l’application des réglementations et évaluera la fiabilité des modèles.
Cette structure s’inscrit également dans une démarche internationale. La France rejoindra ainsi le réseau des AI Safety Institutes, aux côtés du Canada, des États-Unis, du Japon, du Royaume-Uni et d’autres nations engagées dans une IA sécurisée et inclusive.
INESIA : renforcer la position de la France en IA
L’INESIA marque une étape importante dans la stratégie nationale sur l’intelligence artificielle. La France veut structurer un écosystème dédié à l’évaluation et à la régulation de l’IA. Elle vise un rôle clé dans la définition des normes et des bonnes pratiques à l’échelle internationale. Cette approche vise à concilier innovation et sécurité, tout en renforçant la confiance des entreprises et des citoyens dans l’IA.
Cet institut montre la volonté de l’État de maîtriser les défis de l’IA. Il vise aussi à soutenir son développement. Chercheurs, ingénieurs et experts de la régulation collaborent pour garantir une intelligence artificielle responsable et bien encadrée.