Le Royaume-Uni avance ses pions dans le domaine de l’intelligence artificielle. Le 21 juillet 2025, un accord de coopération a été signé avec OpenAI, la célèbre entreprise derrière ChatGPT. Objectif : structurer l’utilisation de l’IA dans les services publics, tout en posant les bases d’un encadrement juridique plus clair, sécurisé et conforme aux attentes réglementaires actuelles.
Trois chantiers pour encadrer l’IA sur le plan légal
Ce protocole d’accord, signé par Sam Altman (OpenAI) et Peter Kyle (secrétaire d’État à la Technologie), s’inscrit dans le plan d’action britannique visant à faire de l’IA un levier de croissance. Trois volets juridiques se dégagent : développement d’infrastructures conformes aux normes nationales, intégration de l’IA dans les administrations publiques avec des garanties de transparence, et amélioration de la gestion des risques via un cadre réglementaire renforcé.
Des zones d’innovation à fort enjeu réglementaire
Les “AI Growth Zones”, financées à hauteur de 2 milliards de livres, concentrent les ambitions du gouvernement pour attirer des investissements. Mais elles posent aussi la question de l’encadrement juridique des infrastructures critiques : gouvernance des données, conformité RGPD, sécurité des systèmes et obligations des opérateurs. OpenAI, en y investissant, devra répondre à ces exigences croissantes.
L’IA dans les services publics : un défi juridique en cours
L’administration britannique a déjà recours à GPT‑4o via l’assistant Humphrey. L’outil Consult, par exemple, automatise l’analyse des consultations publiques. Si le gain d’efficacité est réel, il soulève des questions juridiques : quelles garanties d’équité pour les citoyens ? Quel recours face à une décision issue d’un traitement automatisé ?
L’accord vise à généraliser ces usages dans la justice, l’éducation ou la sécurité. Mais sans cadre juridique solide, cela pourrait exposer l’État à des contentieux liés à la transparence algorithmique, la traçabilité des décisions ou encore les droits des usagers.
Une collaboration pour anticiper les régulations IA
Le partenariat prévoit un échange d’informations avec l’Institut britannique de sécurité de l’IA. Objectif : mieux comprendre les limites juridiques des modèles, identifier les zones de risque et bâtir un référentiel commun. Ce travail en amont facilitera la mise en conformité avec les futures lois européennes, comme l’AI Act, et permettra d’anticiper les obligations de transparence et d’auditabilité qui pèseront sur les fournisseurs d’IA.
En définitive, ce rapprochement entre OpenAI et le Royaume-Uni dépasse le simple cadre technologique. Il s’agit d’un laboratoire grandeur nature pour tester une gouvernance juridique de l’IA, à la fois pragmatique, transparente et protectrice des droits fondamentaux.