Les failles Zero Day représentent l’un des défis les plus redoutables en matière de cybersécurité. Ces vulnérabilités, inconnues des éditeurs et donc non corrigées, offrent aux attaquants la possibilité d’infiltrer les systèmes avant que les correctifs et mesures défensives ne soient déployés. Et si l’IA pouvait aider les développeurs à les repérer avant que les cyberattaquants ne s’en emparent ?
Nous savons que l’IA, via les modèles LLM, s’avère de plus en plus utile pour coder et pour assister les développeurs non seulement dans l’écriture de lignes de code, mais aussi dans la recherche de bugs potentiels.
Et si l’IA pouvait également être entraînée et utilisée pour détecter automatiquement les failles zero-day dans les codes existants ? C’est la question à laquelle l’équipe Big Sleep de Google, Google DeepMind, a voulu répondre. Dans un rapport scientifique, elle vient de démontrer tout le potentiel de l’IA dans ce domaine en découvrant une nouvelle vulnérabilité dans SQLite, une base de données open Source très utilisée.
Issu de l’évolution du projet Naptime, l’équipe Big Sleep a en effet développé un agent IA capable d’assister les chercheurs en sécurité dans la détection des vulnérabilités. En octobre dernier, cet agent a identifié une vulnérabilité de sécurité exploitable dans SQLite, impliquant un débordement de tampon de pile. Cette découverte est d’autant plus remarquable qu’elle a été réalisée avant la sortie officielle du code concerné, évitant ainsi tout impact sur les utilisateurs.
Méthodologie et approche de l’IA
Le succès de l’agent Big Sleep repose sur l’utilisation de grands modèles de langage (LLM) pour analyser le code Source et identifier les modèles susceptibles de contenir des vulnérabilités. Plutôt que de rechercher des vulnérabilités au hasard, l’agent se concentre sur l’analyse des variantes de vulnérabilités déjà connues, une méthode appelée « analyse des variantes ». En fournissant des informations sur les correctifs récents ou les modifications de code, l’agent peut cibler les zones susceptibles de contenir des vulnérabilités similaires qui n’ont pas encore été corrigées.
Cette approche est très efficace pour détecter des vulnérabilités que les techniques traditionnelles, comme le fuzzing, ne parviennent pas toujours à identifier. Pour rappel, le fuzzing consiste à injecter des données aléatoires pour provoquer des erreurs. Le problème de cette approche est qu’elle manque de subtilité et passe donc à côté de nombreuses vulnérabilités. L’IA, quant à elle, peut analyser le code avec une compréhension contextuelle approfondie, repérant ainsi les vulnérabilités difficiles à détecter par les moyens conventionnels.
Impacts et perspectives
En d’autres termes, l’IA est sur le point de changer la donne dans la lutte contre les vulnérabilités logicielles et les failles zero-day. En les identifiant avant même que le code ne soit publié, les défenseurs prennent une longueur d’avance sur les attaquants, inversant ainsi la dynamique habituelle. En supposant bien sûr que cette IA soit utilisée en amont de tout déploiement et par des « gentils », car elle pourrait aussi permettre aux cyberattaquants d’analyser tous les codes open Source actuels pour trouver des failles Zero Day. Il est donc peu probable que Big Sleep soit rendu accessible à tous dans un avenir proche.
Bien entendu, Big Sleep n’est pour le moment qu’un projet expérimental. Mais elle ouvre la voie à un recours accru à l’IA pour renforcer la sécurité des logiciels à l’heure où les RSSI et DSI en ont assez de la croissance exponentielle des vulnérabilités logicielles qui rend la gestion des correctifs de plus en plus ingérable au quotidien et multiplie les voies d’entrée dans les systèmes d’information. .
Related News :