Une découverte alarmante met en lumière les compétences dangereuses des LLM

Une découverte alarmante met en lumière les compétences dangereuses des LLM
Descriptive text here

Les chercheurs ont démontré que les principaux modèles de langage récents comme GPT-4 sont capables de pirater des sites Web de manière totalement autonome.

Dans le paysage en constante évolution de l’intelligence artificielle, une découverte récente a semé une certaine confusion. Une équipe de chercheurs a démontré que les nouvelles générations de grands modèles de langage, ces intelligences artificielles conversationnelles ultra puissantes, pourraient devenir redoutables. les pirates.

Un danger insoupçonné

Pensez-vous que ces assistants virtuels se cantonnent judicieusement aux tâches qui leur sont confiées ? Détrompez-vous ! Selon l’étude, le Les modèles avancés comme GPT-4 sont capables d’orchestrer des cyberattaques d’une complexité remarquable, sans même connaître au préalable les failles à exploiter.

Des chercheurs de l’Université de l’Illinois mettent ces intelligences à l’épreuve en les laissant partir seuls sur des sites Web vulnérables. Appuyées par divers outils, ces IA ont pu réaliser offensives dévastatrices basé sur des injections SQL, allant jusqu’à extraire schémas de base de données.

GPT-4, instigateur malveillant

Parmi les modèles testés, c’est GPT-4, le fleuron d’OpenAI, qui s’est révélé le plus inquiétant en réussissant pirater près des trois quarts des sites Internet ciblé. Un niveau d’efficacité qui remet forcément en question les risques liés au déploiement généralisé d’un tel renseignement.

À l’autre extrémité du spectre, les modèles open Source actuels j’ai toujours du mal à constituer une menace comparable, ayant échoué dans l’une des tentatives de cyberattaques. Un écart évident qui trahit les progrès fulgurants réalisés par les systèmes les plus avancés.

Nécessité d’une vigilance accrue

Bien que ces cyberattaques malveillantes par l’IA aient un certain coût, celui-ci reste nettement inférieur à celui de l’embauche d’experts humains. Ce bas prix représente un avantage considérable pour les cybercriminels potentiels souhaitant exploiter ces vulnérabilités à moindre coût.

Faut-il cependant craindre que de tels assistants conversationnels ne deviennent la nouvelle arme armée des cybercriminels sans scrupules ? Surtout, les chercheurs appellent à la vigilance, et espèrent que leurs résultats pousseront les développeurs à revoir leur politique de distribution de ces modèles performants.

Une chose est sûre, à l’ère de l’IA générative, où les intelligences artificielles semblent sans cesse repousser les limites de leurs capacités, garde un oeil attentif sur leurs abus potentiels est plus que jamais essentiel.

Partagez l’article :


Facebook


LinkedIn

Notre blog est alimenté par les lecteurs. Lorsque vous achetez via des liens sur notre site, nous pouvons gagner une commission d’affiliation.

 
For Latest Updates Follow us on Google News
 

PREV Le casque de réalité virtuelle Apple Vision Pro bénéficie d’une remise que personne n’avait vu venir sur ce site
NEXT Combien de temps reste-t-il pour se procurer le dernier Google Pixel 8 Pro à moins de 800 euros ? – .