Google a annoncé une avancée importante dans la détection des vulnérabilités de sécurité logicielle. Un agent développé à partir d’un modèle de langage assisté par l’intelligence artificielle(IA) a permis de découvrir une faille de sécurité mémoire encore inconnue, potentiellement exploitable, dans un logiciel largement utilisé. Cette collaboration entre Google Project Zero et DeepMind, baptisée « Big Sleep« , est une première publique dans le domaine de la recherche de vulnérabilités assistée par IA.
Google Project Zero et DeepMind s’unissent
Google Project Zero, connu pour son travail élite dans la découverte de vulnérabilités zero-day, a fait équipe avec DeepMind, les laboratoires de recherche en IA de Google, pour créer Big Sleep. Les vulnérabilités zero-day sont des failles de sécurité que les développeurs n’ont pas encore identifiées au moment de leur découverte, ce qui les rend particulièrement dangereuses tant qu’aucun correctif n’est appliqué.
Cette collaboration utilise l’intelligence artificielle pour identifier des failles dans des logiciels largement utilisés. La première découverte de Big Sleep concerne une vulnérabilité découverte dans SQLite, un moteur de base de données open source très répandu. Cette faille a été rapportée à l’équipe de développement de SQLite qui l’a corrigée le jour même, avant que le logiciel ne soit officiellement distribué.
Fuzzing et IA : vers une nouvelle étape de la cybersécurité
Le fuzzing consiste à envoyer des données aléatoires à un programme pour identifier des bugs, et les chercheurs l’utilisent largement pour détecter des vulnérabilités.Toutefois, cette technique a ses limites et ne permet pas de détecter toutes les failles. Big Sleep vise à combler ce manque en utilisant l’IA pour trouver des vulnérabilités avant même la sortie d’une version logicielle. Cette approche pourrait ainsi offrir une protection préventive contre les attaques, réduisant les opportunités pour les attaquants d’exploiter des failles.
L’équipe Big Sleep reconnaît que les résultats actuels sont encore en phase expérimentale. Pour le moment, l’agent IA montre des performances comparables à celles d’un fuzzer conçu spécifiquement pour une cible donnée. Toutefois, son véritable potentiel réside dans sa capacité à non seulement détecter les vulnérabilités, mais aussi à analyser les causes de manière approfondie. Cela pourrait simplifier la priorisation des corrections et rendre la résolution des problèmes plus rapide et efficace. Les spécialistes de Google estiment que cette technologie, à terme, pourrait transformer la sécurité des systèmes informatiques en renforçant leur protection contre les menaces émergentes.
Une vision d’avenir pour la cybersécurité
L’initiative Big Sleep est un premier pas vers une nouvelle façon d’aborder la cybersécurité, où l’intelligence artificielle joue un rôle clé dans la prévention des vulnérabilités avant leur exploitation. Bien que ces travaux soient encore en phase d’expérimentation, leur potentiel est évident. L’utilisation de l’IA pour la recherche de failles de sécurité pourrait permettre aux défenseurs de gagner du terrain sur les attaquants, rendant la correction des problèmes plus efficace et moins coûteuse.
Toutefois, cette évolution doit s’accompagner d’une vigilance accrue face aux dérives potentielles de l’IA, notamment en termes de manipulation de l’information et de respect de la vie privée. Les chercheurs en sécurité et les développeurs d’IA doivent donc collaborer activement afin de garantir que ces technologies servent les intérêts du plus grand nombre, tout en réduisant les risques d’usages malveillants.