Les chercheurs ont démontré que les principaux modèles de langage récents comme GPT-4 sont capables de pirater des sites Web de manière totalement autonome.
Dans le paysage en constante évolution de l’intelligence artificielle, une découverte récente a semé une certaine confusion. Une équipe de chercheurs a démontré que les nouvelles générations de grands modèles de langage, ces intelligences artificielles conversationnelles ultra puissantes, pourraient devenir redoutables. les pirates.
Un danger insoupçonné
Pensez-vous que ces assistants virtuels se cantonnent judicieusement aux tâches qui leur sont confiées ? Détrompez-vous ! Selon l’étude, le Les modèles avancés comme GPT-4 sont capables d’orchestrer des cyberattaques d’une complexité remarquable, sans même connaître au préalable les failles à exploiter.
Des chercheurs de l’Université de l’Illinois mettent ces intelligences à l’épreuve en les laissant partir seuls sur des sites Web vulnérables. Appuyées par divers outils, ces IA ont pu réaliser offensives dévastatrices basé sur des injections SQL, allant jusqu’à extraire schémas de base de données.
GPT-4, instigateur malveillant
Parmi les modèles testés, c’est GPT-4, le fleuron d’OpenAI, qui s’est révélé le plus inquiétant en réussissant pirater près des trois quarts des sites Internet ciblé. Un niveau d’efficacité qui remet forcément en question les risques liés au déploiement généralisé d’un tel renseignement.
À l’autre extrémité du spectre, les modèles open Source actuels j’ai toujours du mal à constituer une menace comparable, ayant échoué dans l’une des tentatives de cyberattaques. Un écart évident qui trahit les progrès fulgurants réalisés par les systèmes les plus avancés.
Nécessité d’une vigilance accrue
Bien que ces cyberattaques malveillantes par l’IA aient un certain coût, celui-ci reste nettement inférieur à celui de l’embauche d’experts humains. Ce bas prix représente un avantage considérable pour les cybercriminels potentiels souhaitant exploiter ces vulnérabilités à moindre coût.
Faut-il cependant craindre que de tels assistants conversationnels ne deviennent la nouvelle arme armée des cybercriminels sans scrupules ? Surtout, les chercheurs appellent à la vigilance, et espèrent que leurs résultats pousseront les développeurs à revoir leur politique de distribution de ces modèles performants.
Une chose est sûre, à l’ère de l’IA générative, où les intelligences artificielles semblent sans cesse repousser les limites de leurs capacités, garde un oeil attentif sur leurs abus potentiels est plus que jamais essentiel.
Partagez l’article :
Facebook
LinkedIn
Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons gagner une commission d’affiliation.