INESIA : un institut pour la sécurité et l’évaluation de l’IA

Date:

INESIA : garantir la sécurité et la fiabilité de l’IA

Clara Chappaz a annoncé la création de l’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA). Cette initiative suit la Déclaration de Séoul, adoptée en mai 2024. Plusieurs pays, dont la France, soutiennent une intelligence artificielle (IA) responsable et sécurisée. L’objectif est de structurer les efforts nationaux pour garantir la fiabilité et la sûreté des systèmes d’intelligence artificielle.

L’’INESIA sera supervisé par le Secrétariat général de la défense et de la sécurité nationale (SGDSN) et la Direction générale des Entreprises (DGE). Il fédérera les principaux acteurs de la recherche et de l’évaluation de l’IA, dont l’Agence nationale de la sécurité des systèmes d’information (ANSSI), l’Institut national de recherche en sciences et technologies du numérique (Inria), le Laboratoire National de Métrologie et d’Essais (LNE) et le Pôle d’expertise de la régulation numérique (PEReN).

Sécuriser l’IA : un enjeu pour son développement

L’intelligence artificielle se déploie dans des secteurs critiques comme la santé, l’éducation ou encore l’industrie. Son développement doit donc s’accompagner d’une vigilance accrue sur les risques qu’elle pourrait engendrer. L’INESIA analysera les risques systémiques liés à l’IA. Il veillera à l’application des réglementations et évaluera la fiabilité des modèles.

Cette structure s’inscrit également dans une démarche internationale. La France rejoindra ainsi le réseau des AI Safety Institutes, aux côtés du Canada, des États-Unis, du Japon, du Royaume-Uni et d’autres nations engagées dans une IA sécurisée et inclusive.

INESIA : renforcer la position de la France en IA

L’INESIA marque une étape importante dans la stratégie nationale sur l’intelligence artificielle. La France veut structurer un écosystème dédié à l’évaluation et à la régulation de l’IA. Elle vise un rôle clé dans la définition des normes et des bonnes pratiques à l’échelle internationale. Cette approche vise à concilier innovation et sécurité, tout en renforçant la confiance des entreprises et des citoyens dans l’IA.

Cet institut montre la volonté de l’État de maîtriser les défis de l’IA. Il vise aussi à soutenir son développement. Chercheurs, ingénieurs et experts de la régulation collaborent pour garantir une intelligence artificielle responsable et bien encadrée.

Chloé (EFIMOVE)
Chloé (EFIMOVE)
Efimove.ai est une entreprise spécialisée en intelligence artificielle à destination des entreprises afin de transformer leurs processus métiers. Efimove est également l'une des entreprises précurseuses des solutions RAG IA avec de belles références à son actif.

Suivez-nous :

Newsletter

Formation en intelligence artificielleFormation en intelligence artificielle

Populaires

A lire également
Intelligence Artificielle

ChatGPT-4.5 : un nouveau levier technologique pour les industries ?

#OpenAI lance #ChatGPT 4.5, une version améliorée de son #IA générative.

CMA CGM & Mistral AI : un partenariat stratégique IA à 100 M€

Ce partenariat illustre une mise en œuvre concrète de l’#IA dans les métiers du #transport, de la #logistique et des #médias.

Solaria : la transcription vocale multilingue pour les entreprises

Solaria illustre l’alliance entre #IA et #IT au service des entreprises en quête de solutions vocales multilingues précises et personnalisées

OpenAI lève 40 milliards de dollars : l’IA continue sa course aux financements

#OpenAI : levée record et transformation forcée vers le profit.